Refine
Document Type
- Bachelor Thesis (662)
- Master's Thesis (102)
- Diploma Thesis (55)
Year of publication
Language
- German (819) (remove)
Keywords
- Computerforensik (55)
- Softwareentwicklung (48)
- Computersicherheit (47)
- Videospiel (41)
- Computerspiel (23)
- Datensicherung (21)
- Maschinelles Lernen (21)
- Virtuelle Realität (17)
- Blockchain (16)
- Programmierung (16)
Institute
- Angewandte Computer‐ und Biowissenschaften (819) (remove)
Konzept, Entwurf und prototypische Implementierung einer Web-Oberfläche für einen Roboadvisor
(2020)
Die vorliegende Arbeit thematisiert die prototypische Entwicklung einer Web-Oberfläche zur Datenpflege für das Unternehmen Franke-Media.net. Im Zuge der Entwicklung wurde ein/e Datenformular/Eingabemaske nach Anforderungen der zuständigen Fachredaktion und eine Navigationsoberfläche nach den Anforderungen des Unternehmens geschaffen. Anschließend wurde die Web-Oberfläche nach zwei Methoden des Usability-Testings getestet und evaluiert. Im Verlauf der Arbeit wird auf Grundwissen über Finanzdienstleistungen, Vergleichsportale und Web-Anwendungen eingegangen. Es werden zudem verschiedene Techniken zum Erreichen des Ziels betrachtet. Anschließend folgen die Konzipierung und das Erstellen einer ersten prototypischen Oberfläche. Den Abschluss der Arbeit bilden die Usability-Tests sowie die Auswertung der Ergebnisse dieser.
Aufgrund der unvorhergesehenen Corona-Krise, dadurch entstandener Komplikationen und den daraus resultierenden zeitlichen Problemen konnten nicht alle Funktionen implementiert werden.
Die Erkenntnisse und Ergebnisse der Bachelorarbeit dienen als Ausblick für darauf auf-bauende Arbeiten.
Das Ziel dieser Bachelorarbeit ist die Darstellung von Techniken zur Verfolgung von Transaktionen und Entitäten auf der Bitcoin Blockchain. Die zugrundeliegende Forschungsfrage lautet wie folgt:
Welche Aussagekraft und Grenzen haben Heuristiken und Analysemethoden zur Nachverfolgung von Bitcointransaktionen und wie wirken sie sich auf deren Anonymität aus?
Zur Beantwortung der Forschungsfrage wird eine Literaturrecherche durchgeführt. Die Funktionsweise der Methoden wird dargestellt, Stärken und Schwächen der Methoden werden aufgezeigt und gegebenenfalls Verbesserungsvorschläge gemacht.
Es zeigt sich, dass die Anonymität des Bitcoin-Systems aus verschiedenen Richtungen eingeschränkt werden kann. Die vorgestellten Analysemethoden haben jedoch ihre Grenzen und können die Anonymität des Bitcoinsystems nicht endgültig überwinden.
Letztendlich bleibt festzuhalten, dass die Anonymität eines Nutzers von seiner Bitcoin-Nutzung und der Nutzung seines Umfelds abhängt. Ein bewusster, anonymer Umgang mit der Kryptowährung ist die Grundlage für eine solide Privatsphäre.
Vor dem Hintergrund der stetigen Digitalisierung gewinnen ebenfalls der Schutz von Daten und die Privatsphäre im digitalen Raum an Bedeutung. Insbesondere das Management digitaler Identitäten befindet sich im Umbruch. Zentralisierte Identitätsprovider haben begonnen, mit dem Konzept der Passkey-Technologien ein neues Authentifizierungsverfahren in ihre Systeme zu implementieren, welches künftig das Passwort ablösen soll. Das Konzept Self-Sovereign Identity (SSI) bietet ein dezentralisiertes System zur eigenständigen Identitätsverwaltung. Die Arbeit befasst sich mit der prototypischen Entwicklung einer erweiterbaren Schnittstelle zur Validierung digitaler Nachweise in einem SSI-Ökosystem in Form eines Plugins für das Content-Management-System WordPress. Dieses Plug-in soll eine alternative Authentifizierungsmethode zu Passkey-Technologien von Identitätsprovidern darstellen.
Diese Arbeit präsentiert ein Protokoll für vertrauliche Transaktionen auf Ethereum, das auf einer kontenbasierten Struktur und Paillier-Verschlüsselung basiert. Die Integration von Non-Interactive Zero-Knowledge Range Proofs (NIZKRP) verbessert die Sicherheit. Die Implementierung und Tests auf Ethereum zeigen vergleichbare Transaktionskosten (Sicherheitsparameter 40) im Vergleich zu Protokollen mit Bulletproofs. Bei einem Sicherheitsparameter von 128 (NIZKRP-Empfehlung) ist das Protokoll jedoch nicht anwendbar. Die Arbeit betont die Effizienz und Wettbewerbsfähigkeit, hebt jedoch die Herausforderung bei höheren Sicherheitsparametern hervor. Das Protokoll bildet eine solide Grundlage, erfordert jedoch weitere Optimierungen für breitere Anwendbarkeit.
Die vorliegende Arbeit beschäftigt sich mit der Fragestellung ob und warum die Anzahl von IT-Sicherheitslücken exponentiell steigt. In Zuge dessen wird der Zusammenhang zwischen der Entwicklung von Sicherheitslücken und der Entwicklung der Code-Länge über die Zeit untersucht. Um die Forschungsfrage zu beantworten, wurden CVE-Daten ausgewertet. Dabei wird nicht nur die allgemeine CVE-Entwicklung, sondern auch ausgewählte Software-Systeme im Speziellen betrachtet. Um die Code-Länge zu untersuchen, wurden die LOC der einzelnen Software-Systeme analysiert. Die Untersuchung ergab, dass die Entwicklung der CVE gesamt einen exponentiellen Trend verfolgt. Die CVE-Entwicklung der einzelnen Software-Systeme verfolgt im Gegensatz dazu in der Mehrheit einen linearen Trend. Auch die LOC-Entwicklung der Software-Systeme passt sich diesem Trend an. Somit zeigt sich, dass die drastische Entwicklung der Sicherheitslücken nicht ausschließlich durch eine drastische LOC-Entwicklung beeinflusst wird, sondern von verschiedenen Faktoren abhängt, die sich untereinander verstärken.
Diese Arbeit beschäftigt sich mit der Frage, ob und inwiefern es möglich ist, das Griffgeschehen anhand sichergestellter Spuren digital zu rekonstruieren. Um die Frage zu beantworten, wird sich neben der Anatomie der Hand auch mit den Ansprüchen der Photogrammetrie sowie der Erstellung und Weiterverarbeitung von 3D-Modellen beschäftigt. Das Ziel besteht zum einen darin, mittels photogrammetrischer Aufnahmen, ein 3DModell von dem Spurenträger sowie dem Spurenverursacher zu erstellen. Die Hand soll hierbei ausgestreckt sein. Zum anderen soll mit den entstandenen Modellen der Griff wiederhergestellt werden, in dem das Handmodell in Blender bewegt werden soll. Es stellte sich heraus, dass sich die vorgestellten Methoden zur Erstellung eines Handmodells nicht eigneten, um der Fragestellung dieser Arbeit nachzugehen. Der Hauptgrund besteht darin, dass die Hand, anders als die Tasse, kein Objekt ist und somit nicht auf den Drehteller abgestellt werden kann. Anders als bei Objekten, konnten die Photogrammetrischen Aufnahmen folglich ausschließlich händisch aufgenommen werden. Zudem erwiesen sich die Aufnahmen der ausgestreckten Hand als schwierig. Besondere Probleme bereitete hierbei das Stillhalten der Hand aufgrund der unnatürlichen Pose und der Dauer der Bildaufnahmen. Insgesamt dienen die Ergebnisse dieser Arbeit als Grundlage für weitere Forschungsthemen im Bereich Photogrammetrie sowie der Rekonstruktion des Griffgeschehens.
Die Auswertung von Kurznachrichten, die auf mobilen Endgeräten gespeichert sind, nimmt bei strafrechtlichen Ermittlungen immer mehr an Bedeutung zu. Häufig sind Ermittler hierbei mit umfassenden Nachrichtenmengen konfrontiert. Um einen Überblick zu erhalten, wäre eine kompakte Zusammenfassung der zahlreichen Nachrichten hilfreich. Eine Möglichkeit diese automatisiert zu erhalten, stellt die Themenmodellierung dar. Diese ist allerdings bei forensischen Kommunikationsdaten mit besonderen Herausforderungen verbunden. Zu diesen zählt die Tatsache, dass der Ermittler oft eine Erwartungshaltung an die Themen hat, wobei die für ihn interessanten Themen häufig nur zu einem geringen Anteil in den Daten vertreten sind. Um ihn bei dem Finden von Beweisen zu diesen Themen zu unterstützen, wurden zwei Methoden der halbüberwachten Themenmodellierung und Erweiterungen basierend auf Word Embeddings und paradigmatischen Relationen miteinander verglichen. Insbesondere für umgangssprachliche Kurznachrichten ist die Evaluierung der Themenmodellierung als schwierig anzusehen, da bisherige Studien gezeigt haben, dass gängige quantitative Evaluierungsmaße bei diesen nicht unbedingt die tatsächliche Interpretierbarkeit der Themen widerspiegeln. Daher bestand ein weiteres Ziel der Arbeit darin zu untersuchen, inwieweit die Ergebnisse einer regelmäßig angewendeten automatischen Evaluierungsmethode durch eine Nutzerstudie wiedergegeben werden. Insgesamt konnte festgestellt werden, dass nach der quantitativen Evaluierung die halbüberwachte Themenmodellierung unter Einbeziehung von paradigmatischen Relationen als besonders erfolgversprechend angesehen werden kann, während nach der Nutzerstudie vor allem die Word Embeddings die Ergebnisse der halbüberwachten Themenmodellierung verbessern konnten. Des Weiteren zeigte sich, dass keine Korrelation zwischen den Resultaten der automatischen Evaluierung und der Nutzerstudie vorlag.
Die vorliegende Arbeit beschäftigt sich mit der Umsetzung einer Viewer X-Tension für die Darstellung von ESE Datenbanken in X-Ways Forensics. Dazu wird vor allem der konkrete Aufbau und die Struktur einer ESE Datenbank analysiert und vorgestellt. Weiterhin werden die technischen Grundlagen der Software X-Ways Forensics und der X-Tensions-API zur Erstellung einer Erweiterung gelegt. Zudem werden die Schritte der Umsetzung aufgezeigt und die konkrete Programmimplementierung an Code-Beispielen erläutert.
Ziel dieser Arbeit ist es, die Ablagestruktur des sozialen Netzwerkdienstes Threads durch forensische Analysen an Android-Geräten zu untersuchen. Die Testdaten werden mit Hilfe von zwei Android-Smartphones generiert. Auf einem der Mobilgeräte werden Root-Rechte aktiviert, um Zugriff auf die Anwendungsdaten von Threads zu erhalten. Die Root-Rechte ermöglichen einen permanenten Zugriff auf Anwendungsdaten, wodurch ein mehrmaliges Auslesen der Anwendungsdaten ohne hohen Zeitaufwand möglich und somit eine detailreiche Analyse realisierbar ist. Das zweite Mobilgerät wird einer Informationstechnologie (IT)-forensischen Extraktion mittels UFED Touch2 unterzogen.
Aus dieser Extraktion wird anschließend ein UFED-Bericht generiert, welcher Informationen zu Anwendungen beinhaltet, die auf dem Gerät verwendet wurden. Aus der Analyse soll hervorgehen, welche Anwendungsdaten von Threads in den UFED-Bericht einfließen. Die Literaturrecherche zeigte, dass bisher keine wissenschaftlichen Arbeiten zur Anwendung Threads veröffentlicht wurden. Infolgedessen soll der Fokus der Analysen auf Ablagestruktur und Informationen zum Nutzerkonto sowie Aktionen, wie das Teilen von Beiträgen oder Verfassen von Kommentaren, liegen.
In dieser Arbeit wurde ein aktueller Überblick über die im Dark Web verfügbaren Hidden Services erstellt. Dazu wurden Onion-Adressen mit Hilfe von Suchmaschinen und Verzeichnissen gewonnen.
Über diese Onion-Adressen wurden Hidden Services aufgerufen und untersucht. Die gefundenen Hidden Services wurden in Kategorien eingeteilt und anschließend näher betrachtet. Dabei wurde vor allem auf die Inhalte eingegangen. Diese wurden untereinander und mit Webseiten aus dem Clear Web verglichen.
Es konnten zahlreiche verschiedene angebotene Inhalte festgestellt werden. Sowohl legale als auch illegale Inhalte. Die Anzahl der Hidden Services mit illegalen Inhalten überwiegt. Die größte Kategorie stellen digitale Marktplätze dar. Auf diesen werden verschiedene, hauptsächlich illegale Produkte und Dienstleistungen verkauft.
Die vorliegende Arbeit beschäftigt sich mit der Analyse von
Festplattenverschlüsselungssoftware. Dabei werden BitLocker von Microsoft, FileVault von Apple unter MacOS und LUKS unter Linux betrachtet. Des Weiteren wird die Verschlüsselung Data Protection der iPhones und Android Encryption von Googles Betriebssystem analysiert. Bei der Untersuchung werden die verwendeten kryptographischen Algorithmen, die Schlüsselhierarchie und hardwarebasierenden Technologien behandelt. Zudem werden Angriffsmöglichkeiten präsentiert, die bei einer forensischen Analyse verwendet werden können, um die Verschlüsselung zu umgehen.
Eine empirische Analyse von 19 DAO-Airdrops im Hinblick auf die Governance-Aktivität der Empfänger: Airdrops sind ein bekannter Incentive-Mechanismus bei Blockchain-Protokollen. In den letzten Jahren haben vor allem DAOs „retroaktive“ Airdrops für sich entdeckt, die frühe Nutzer eines Protokolls entlohnen. Diese Art der Verteilung von Token gilt allerdings auch als ein möglicher Lösungsansatz für Zentralisierung bzw. mangelnde Voting-Beteiligung in DAOs. Thema der Arbeit ist daher, welchen Effekt Airdrops auf die Governance-Aktivität in DAOs haben. Zu diesem Zweck wurden 19 DAOs empirisch untersucht. Wir vergleichen die Voting-Beteiligung der Airdrop-Empfänger auf Snapshot bzw. on-chain mit dem der Gesamtheit der Token-Halter. Außerdem wird die Verteilung der Airdrops, die Halte-Dauer und der Delegations-Anteil betrachtet. Wir stellen fest, dass die Beteiligung der Airdrop-Empfänger im Durchschnitt etwas höher ist als die von nicht-Airdrop-Empfängern. Ob Airdrops sich als Governance-Instrument eignen, ist allerdings im Einzelfall zu betrachten.
In dieser Arbeit geht es um die Validierung von Richard Bartles Modell der Spielerarchetypen in einem Einzelspieler-Videospiel. Das Modell wurde für die Entwicklung des Spiels Explorer Bot angewendet. Die Validität des Modells wurde anschließend über zwei Faktoren bestimmt. Zum einen wurden die Meinungen über Explorer Bot der Spieler mittels einer Umfrage aufgezeichet. Der andere Faktor besteht aus der Existenz der Archetypen unter den Spielern Explorer Bots.
In dieser Masterarbeit wird erforscht, ob und wie Funktionalität von einem Mikrocontroller auf ein leistungsstarkes externes Gerät portiert werden kann. Dabei sollen die ausgelagerten Funktionalitäten WebAssembly nutzen, um eine Vielzahl von externen Geräten zu unterstützen. Zusätzlich wird evaluiert, wie das leistungsstarke Gerät den Mikrocontroller steuern soll, bzw. wie ein Datenaustausch hergestellt wird und wie Eingaben im leistungsstarken Gerät vollzogen werden.
In dieser Bachelorarbeit wird eine Sicherheitsanalyse für das Anwendungsszenario Traffic Steering im Open RAN durchgeführt. Dabei werden die Architektur und Sicherheitsaspekte des Open RAN sowie des Traffic Steering genauer analysiert. Nach der Ausarbeitung theoretischer Angriffsszenarien soll anschließend eine virtualisierte Open-RAN-Implementierung als Testumgebung für einen geeigneten Angriff dienen, der anschließend evaluiert wird.
Häusliche Gewalt : Untersuchung der gesetzlichen Regelungen und (sozialen) Hilfsmöglichkeiten
(2024)
Das Ziel der vorliegenden Bachelorarbeit war es, das Thema der häuslichen Gewalt aufzugreifen und hinsichtlich der verschiedenen Gewaltbegriffe im internationalen sowie nationalen Recht zu vergleichen. Dafür wurden verschiedene Literaturtexte ausgewertet.
Hinsichtlich der häuslichen Gewalt wurden mehrere Theorien möglicher Ursachen bewertet mit dem Ergebnis, dass eine Vielzahl an Faktoren für aggressives Verhalten ursächlich sind und die eigene Entscheidung zur Gewalt eine große Rolle spielt. Auch das Gesundheitswesen, Frauenhäuser und Täterprograme wurden in Bezug auf die Themen in ihrer Funktion
beschrieben.
Diese Arbeit befasst sich mit dem Erstellen eines digitalen, fotorealistischen Porträts. Dabei werden die Grundlagen sowie das Vorgehen beim Entstehungsprozess beschrieben. Im Weiteren untersucht diese Arbeit Methoden zur Einschätzung des Zeichenfortschritts des erstellten Bildes. Diese werden getestet und ihre Ergebnisse anschließend ausgewertet.
In dieser Arbeit wird ein DNA-Einzelstrang mittels fluoreszenzspektroskopischer Untersuchungen charakterisiert. Die DNA ist mit zwei Fluorophoren markiert, damit die Charakterisierung mittels FRET durchgeführt werden kann. Durch Zugabe von monovalenten Metallionen K(I) und Na(I) wird der Faltungszustand der DNA beeinflusst. Die Messungen werden bei verschiedenen Bedingungen durchgeführt (Metallionenkonzentration, Metallion, Temperatur, Puffer und pH-Wert). Durch die Berechnung des relativen Anteils der Akzeptoremission kann FRET bestimmt werden und daraus auf den Abstand der Farbstoff am Molekül der DNA geschlossen werden.
Im Rahmen der Arbeit wurde untersucht, welche neuen Möglichkeiten Künstliche Intelligenz (KI) bezüglich der bei Phishing-Angriffen verwendeten Taktiken, Techniken und Werkzeuge bietet. Die Nutzung von KI-gestützten Phishing-Angriffen wird praxisnah beschrieben. Unter diesem Aspekt wurden aktuelle KI‘s betrachtet, insbesondere ChatGPT. Daraufhin wurde analysiert, inwiefern diese den Prozess des Phishing oder Teilaspekte davon vereinfachen beziehungsweise erleichtern. Die Ergebnisse wurden diskutiert, um ein besseres Verständnis dafür zu schaffen, wie künstliche Intelligenz den Phishing-Angriffen neue Angriffsvektoren hinzufügt. Die rechtliche oder ethische Bewertung von KI im Zusammenhang mit Phishing wurde nicht behandelt. Zudem geht die Arbeit ebenfalls nicht auf die Entwicklung oder Implementierung spezifischer Abwehrmaßnahmen ein.
In dieser Arbeit wird der Einsatz des Wave Function Collapse Algorithmus untersucht. Dazu werden Anforderungen an das Leveldesign für das Videospiel Counter Strike: Global Offensive als Vorlage genutzt. Der Algorithmus wird in der Unity Engine implementiert und evaluiert. Es werden drei Versuchsreihen durchgeführt. Jede Versuchsreihe nutzt andere Einstellungen für die Levelgenerierung und analysiert welche Anforderungen erfüllt werden können. Die Ergebnisse werden verglichen und es werden Rückschlüsse auf die Anwendbarkeit des Algorithmus für die Erstellung von Multiplayer Level mit Ähnlichkeit zu Counter Strike: Global Offensive gezogen.
Interaktive Partikelsimulationen : eine Untersuchung der Visualisierung astrophysikalischer Prozesse
(2024)
Der Einsatz von Spezialeffekten, insbesondere Partikelsimulationen, ist in der heutigen Filmproduktion unverzichtbar geworden. Diese Simulationen finden Anwendung in einer Vielzahl von Szenarien, von realistischen Darstellungen von Staub, Feuer und Wasser bis zu abstrakten magischen Effekten. Sie werden in der Regel eingesetzt, wenn Prozesse zu komplex sind, um sie auf praktische Weise zu visualisieren, einschließlich astrophysikalischer Phänomene, die sich über Zeit- und Raumskalen entfalten, die schwer zu beobachten und zu begreifen sind. Diese Arbeit erforscht Partikelsimulationen mit dem Ziel, astrophysikalische Prozesse zu visualisieren, wobei der Schwerpunkt darauf liegt, Interaktivität in diese Simulationen einzuführen, da diese allgemein als förderlich für den Wissenserwerb betrachtet wird. Das Ziel besteht darin, die Machbarkeit der Erstellung von Partikelsimulationen zu untersuchen, die vom Nutzer gesteuert werden können, um astrophysikalische Prozesse individuell zu erkunden und zu verstehen. Hierfür wird eine interaktive dreidimensionale Partikelsimulation entwickelt, die den Prozess der stellaren Evolution und insbesondere die Unterscheidung der Evolutionsstufen veranschaulichen soll, um das Verständnis von Schülern zu verbessern. Die Arbeit diskutiert potenzielle Herausforderungen durch Interaktivität und technische Einschränkungen bei der Umsetzung solcher Simulationen sowie mögliche Lösungsansätze.
In dieser Arbeit wird die Entwicklung eines Tools beschrieben, welches diverse Schritte des digitalen Achterbahnbaus prototypisch kombiniert. Entwickelt wurden eine visuelle Bewegtbilddarstellung, ein prozeduraler Streckengenerator, eine automatische Rotationszuweisung und eine Präferenzeingabefläche zur Beeinflussung der zufälligen Streckenausgabe. Der Fokus liegt darauf, die zufälligen Streckenlayouts in einer Umfrage zu evaluieren, um zu ermitteln, ob diese Software einen potentiellen Mehrwert für professionelle Achterbahndesigner bietet. Im Rahmen der Evaluation wurden sieben Achterbahnen im Tool erbaut. Dabei handelt es sich um zwei zufällig generierte, zwei vom Autor erschaffene und drei Repliken realer Bahnen. Um eventuelle Streckentyppräferenzen von Probanden zu erkennen, wurden zwei verschiedene Achterbahntypen für die Evaluation verwendet. Diese sind als Videoaufnahme in einer Umfrage mit 26 Probanden untersucht und anschließend miteinander verglichen worden. Die Probanden zeigten in ihrer Erfahrung mit Achterbahnen einen geringen bis mittelmäßigen Wissensschatz, konnten aber gute Bahnen von schlechten unterscheiden. Es war ihnen nicht eindeutig möglich, die realen Strecken von den anderen zu unterscheiden. Die Ergebnisse zeigen, dass die zufällig generierten Strecken den realen Repliken im Bezug auf Kreativität ebenbürtig sind. Auch die Qualität des Streckenlayouts weist laut den Probanden kein erkennbares Defizit auf. Die prototypische Umsetzung der Ausgabe des Tools kann als zufriedenstellend eingeschätzt werden. Ob die Applikation einen positiven Einfluss auf die Arbeit eines brancheninternen Designers hat, muss in einer weiteren Studie untersucht werden.
Das Thema Kinderpornographie ist schon lange immer wieder Fokus der Medien. Erst vor kurzem hat die deutsche Polizei ein internationales Netzwerk, welches Kinderpornographie verbreitete, aufgedeckt und vier Täter festgenommen. [27] Auch die polizeiliche Kriminalstatistik (PKS) verzeichnete im Jahr 2019 und 2020 einen massiven Anstieg des Besitzes, der Herstellung und der Verbreitung von Kinderpornographie. [3, 4] Diese Zustände und Entwicklungen sind erschreckend und zeigen die Relevanz der Arbeit in diesem Themengebiet. Daher befasst sich diese Bachelorarbeit mit der Entwicklung einer unterstützenden künstlichen Intelligenz (K.I.) für die Ermittlungen.
Diese Arbeit beschäftigt sich mit dem Erstellen semantischer Encodings von Bilddaten. Um diese Kodierungen aus den Daten zu extrahieren, wird ein künstliches neuronales Netzwerk auf
Videobild Interpolation trainiert. Die daraus erlernten Encodings sollen anschließend auf ihre Anwendbarkeit in einer anderen Aufgabe der KI gestützten Bildverarbeitung, der Extraktion von Landmarken auf Menschen, getestet werden.
Die vorliegende Arbeit befasst mit der Entwicklung eines Prüfstandes zur Absicherung einer Softwarefunktion. Dabei wird die Umgebung, der Hochintegrationsrechner in der Fahrzeugentwicklung, sowie verschiedene Prüfstandskonzepte betrachtet. Die Anforderung und Testspezifikationen werden analysiert und teilweise revidiert. Als Lösung wird eine drei Teilige dargestellt: Testwürfel, G-HiL und Sys-HiL. Diese Synergie liefert zu jedem Verbundreleases einen SmokeTest und kann zu den Gesamtintegrationstest einen Volltest durchführen.
Möglichkeiten der technischen Umsetzbarkeit für die Erstellung eines digitalen Leichenmodells
(2021)
Diese Machbarkeitsstudie beschäftigt sich mit der Prüfung von Möglichkeiten der technischen Umsetzbarkeit für die Erstellung eines digitalen Leichenmodells. Anhand von Informationen der forensischen Bildgebung sowie der Oberfläche des Leichnams, soll die Anfertigung eines digitalen Leichenmodells erfolgen. Dafür wird zunächst der Leichnam durch eine postmortale Computertomografie sowie eine Angiografie basierend auf der Computertomografie dargestellt. Darauffolgend wird die Oberfläche durch Informationen eines handgeführten Laserscanners rekonstruiert. Unter Verwendung verschiedener Methoden lassen sich die erhobenen Daten mit denen der forensischen Bildgebung anreichern und kombinieren. Das Vorgehen sowie Herstellung des digitalen Leichenmodells wird näher betrachtet und eingehend erläutert. Abschließend soll das digitale Leichenmodell animiert in den rekonstruierten Tatort eingefügt werden, um den Tathergang bestmöglich wiederzugeben. Die Erkenntnisse der möglichen Abläufe werden folgend in der Machbarkeitsstudie diskutiert und beurteilt. Letztendlich erfolgt der Vergleich des verwendeten Laserscanners mit einem neueren Modell der gleichen Marke sowie des Laserscanverfahrens mit der Fotogrammmetrie.
In dieser Masterarbeit wird sowohl säurelösliches Kollagen, als auch Gelatine als Ausgangsmaterial verwendet. Dieser Ausgangsstoff wird anschließend funktionalisiert und verschieden photovernetzt, um verschiedene nanomechanischen Eigenschaften zu generieren. Diese werden durch statische Rasterkraftspektroskopie untersucht. Das modifizierte Kollagen und Gelatine werden dann nach DIN auf ihre Zytotoxizität getestet. Nach erfolgreicher Überprüfung werden Zellversuche vorgenommen um die Zellantwort auf die unterschiedlichen mechanischen Eigenschaften untersucht. Zuletzt wird in Gelatine die Oberflächenmorphologie von Kollagen gestempelt und eine Veränderung der Zellantwort zu nicht gestempelter Gelatine überprüft.
Die Strafverfolgungsbehörden verwenden zunehmend Mobilfunkdaten, um Tathergänge zu rekonstruieren und daraufhin Tatverdächtige überführen zu können. Die Mobilfunkdaten erhalten die Strafvervolgungsbehörden auf Anfrage und richterlichen Beschluss von den Telekommunikationsanbietern. Die Anfragen sind sowohl zeitlich als auch regional stark eingegrenzt. Trotzdem ist das Datenvolumen erheblich. Auf Grund des Datenvolumens und der Heterogenität der Datenformate zwischen den Mobilfunkanbietern, gestaltet sich die Auswertung der Daten sehr aufwändig. Diese Masterarbeit adressiert die genannten Aspekte mit einer auf die Mobilfunkdaten abgestimmten Datenintegrations- und -analyse-Pipeline. Die Pipeline überführt die Mobilfunkdaten in ein harmonisiertes Datenformat und reichert sie mit einer Annotation zur Bodennutzungsklassifizierung an. Letztere sind für die Datenanalyse relevant. Grundlegend greift die Pipeline auf eine Graphdatenbank zurück, in die die Daten eingefügt werden. Anhand der Anfragesprache Cypher können relevante Daten für diverse Auswertungsfragen selektiert und zur Verfügung gestellt werden. Diese Grundlage ermöglicht eine iterative Vorgehensweise bei der Datenauswertung, so dass aus Ergebnissen einer vorangegangenen Frage, neuen Auswertungszielen schnellstmöglichst begegnet werden kann. Die in der Arbeit gezeigten Auswertungen stehen beispielhaft für das große Spektrum an Auswertungsmöglichkeiten. Insbesondere wurden Personenkreise mit speziellen Bewegungsprofilen anhand der den Funkmasten zugeordneten Landnutzungsklassen ermittelt. Die in der Arbeit verwendeten Daten wurden mit diesem Ansatz um 99% reduziert. Damit können Analyst:innen sich auf die relevanten Aussagen konzentrieren. Zudem konnte eine Korrelation zwischen Mobilität und dem Nutzungsverhalten hergestellt werden. Jedoch zeigt sich auch, dass die hohe Variabilität und Individualität der Personen in einem zeitlich und regional eng begrenzten Datenraum, der Ermittlung von allgemeinen Bewegungsprofilen entgegensteht.
In dieser Arbeit wurde die Entwicklung eines neuen Extraktionsverfahrens für Cannabinoide in Aufgüssen von hanfhaltigen Teeerzeugnissen beschrieben. Es wurden Aufgüsse, welche ausschließlich durch den Zusatz von Wasser hergestellt wurden und Aufgüsse, welche durch den Zusatz von fetthaltigen Zutaten wie Sahne und Speiseöl hergestellt wurden, betrachtet. Des Weiteren wurde der Einfluss fetthaltiger Komponenten auf die in hanfhaltigen Tees enthaltenen Cannabinoide Δ9-Tetrahydrocannabinol und Δ9-Tetrahydrocannabinol-9 -Carbonsäure A untersucht.
In dieser Arbeit wurden Thermistorelektroden aus einer Kombination eines kalibrierten Heizwiderstandes (Pt100) und einer Goldelektrode entwickelt. Diese sollen thermodynamische Untersuchungen an elektroaktiven Mikroorganismen ermöglichen. Die Thermistorelektroden wurden in einen Doppelwandreaktor fixiert, der über einen Thermostaten temperiert wurde. Anschließend wurde dieser Reaktor auf sein Temperaturverhalten untersucht, indem über einen Heizdraht definierte Wärmepulse in das System geleitet wurden und die resultierenden Temperaturäderungen gemessen wurden. Daraufhin wurde das Systems validiert, indem die elektrochemische Peltier Wärme für das Redoxpaar K3[Fe(CN)6]/K4[Fe(CN)6] mit +28±1,5 𝑘𝐽𝑚𝑜𝑙 für die Reduktion und 31±3,8 𝑘𝐽𝑚𝑜𝑙 für die Oxidation ermittelt wurde. Außerdem wurde ein sekundärer Geobacter Anreicherungsbiofilm auf den Thermistorelektroden kultiviert. Durch die Methode TRFLP wurde dabei gezeigt, dass Geobacter die dominierende Spezies auf der Elektrode zu Beginn und zum Ende der Kultivierung darstellt. Zukünftig sollen die entwickelten Thermistorelektroden für thermodynamische Untersuchungen an elektroaktiven Mikroorganismen verwendet und die mikrobielle elektrochemische Peltier Wärme gemessen werden.
Im Rahmen des Projekts "Historisches Mittweida" entsteht eine virtuelle Nachbildung der Stadt Mittweida Auf Basis der Unity-Engine. Der thematische Fokus liegt auf einer spielerischen Nachbildung der Entwicklungsgeschichte der Hochschule Mittweida. Der menschliche Spieler soll dieser selbst Hand anlegen dürfen und so seine eigene, aber immer noch an die historischen Vorgaben angelehnte Version dieser Geschichte erschaffen können.
Das Ziel dieser Arbeit besteht in der Erweiterung dieses Projekts um ein Multi- Agentensystem (MAS), welches die Spielwelt mit virtuellen Studenten belebt. Die virtuellen Studenten haben individuelle Fähigkeiten und Begabungen und steigern ihre Erfahrungen durch den Besuch von Lehrveranstaltungen. Die Dynamik dieser Abläufe soll spielerisch erlebbar sein. So soll der Spieler z.B. durch die Errichtung von Hochschulgebäuden und der Einstellung von Dozenten die Lehrumgebung für die Studenten aktiv gestalten. Dazu benötigt er Ressourcen, welche er aus Studiengebühren, Forschungsprojekten und anderen Quellen erhält.
Zur Abbildung des Lehrbetriebs der Hochschule Mittweida sollen Agenten in der Rolle von Studenten und Dozenten zur Interaktion miteinander befähigt werden, damit ein generalisierter Studienablauf abgebildet werden kann. Zu diesem Zweck soll zunächst ein generalisiertes Konzept dieser Agenten entwickelt werden. Dieses Konzept soll daraufhin in einem Prototypen umgesetzt werden, welcher dann auf Spielbarkeit hin evaluiert werden soll. Die abschließende Evaluation soll Rückschlüsse dazu liefern, wie der Prototyp ausbalanciert werden muss, um das Spielerlebnis und den Fluss des Spiels zu verbessern.
Keiner schaut mehr Fernsehen. Die Benutzung von Videostreaming ist beim Großteil der digital vertrauten Bevölkerung in Fleisch und Blut übergegangen und erstreckt sich über den gesamten Globus. Die Giganten der Streaming-Anbieter sind YouTube, Amazon und Netflix und sie sind dem Modell des Fernsehens meilenweit voraus. Mit komplex verstrickten Algorithmen sollen uns, den Nutzern, die Inhalte geboten werden, die uns dazu bringen, noch mehr zu konsumieren. Wie weit und auf welche Weise muss ein System entwickelt sein, um jedem Nutzer Inhalte anzubieten, die unheimlich oder faszinierende Weise auf uns zugeschnitten sind?
Das Ziel dieser Forschung ist es, das System der Vorschläge von Netflix auf die Qualität, Passgenauigkeit und Effizienz im Hinblick auf Präferenzen und Bedürfnisse zu bestimmen, die die Nutzer in Verbindung mit Netflix aufweisen.
Um die Forschungsfrage zu beantworten, wurden innerhalb einer mehrteiligen, iterativen Meinungsumfrage Bewertungen von Vorschlägen von Freunden, Bekannten und Familie mit den Vorschlägen von Netflix in den Zusammenhang mit dem eigenen Filmgeschmack, Präferenzen, Nutzung des Accounts und Verhalten beim Streaming gebracht. Dabei wurde bestätigt, dass die Vorschläge von Netflix stärker zum Filmgeschmack passen, hierbei jedoch Differenzierungen bei der Popularität und Unterhaltsamkeit des Vorschlags zu beobachten sind. Des Weiteren zeigte die empirische Untersuchung auf, dass verhaltenspsychologische und sozialwissenschaftliche Aspekte Einflüsse auf die Effizienz einer künstlichen Intelligenz haben und noch nicht voll ständig in die Optimierung in das System der Netflix Vorschläge eingeflossen sind.
This work deals with the automatic knowledge-based classification of forensic texts. For this purpose, a sematic web server in the form of a local DBpedia instance, which runs on a Virtuososerver to be created. Mainly it was checked for how the installation works and this recorded in an illustrated instructions. In addition, it was checked how far an online access to the global DBpedia works.
Käufer haben häufig das Problem die Sicherheit von Produkte einzuschätzen. In der Bachelorarbeit möchte ich darauf eingehen, welche Zertifizierungsmöglichkeiten existieren und in welche Branchen sie sich einordnen. Daraufhin wird eine Klassifizierung und Einordnung der Zertifikate zur IT-Sicherheit durchgeführt. Im Schwerpunkt liegen hierbei die Produktzertifizierungen. Die Transparenz wird für den Verbraucher übergreifend betrachtet. Die Ergebnisse zeigen auf, ob sich Zertifikate gut oder weniger gut für die unterschiedlichen Branchen eigenen und ob gegebenenfalls Risiken damit verbunden sind.
Ziel dieser Arbeit ist die Entwicklung eines Konzepts und einer Erstimplementation zur Benutzerdatenerfassung, um verschiedene Digitalisierungsprozesse messen zu können. Die durch die Benutzerdatenerfassung gesammelten objektiven Interaktionsdaten sollen weitere Daten, wie z. B. eine Benutzerakzeptanzstudie bei einer vergleichenden Evaluation von Prozessen zur Dokumentenerfassung hinsichtlich der Benutzbarkeit ergänzen und unterstützen.
In dieser Arbeit wurde der Einfluss der Molekülgröße von per- und polyfluorierten Alkylsubstanzen auf den Summenparameter AOF mittels eines ungekoppelten Systems im AOF-Gesamtverfahren untersucht. Dazu wurden drei käuflich erworbene PFAS-Standards ausgewählt und daraus selbst hergestellte PFAS-Standardlösungen und PFAS-Kombinationslösungen analysiert. Es wurde insbesondere der Durchbruch der im Anreicherungsschritt genutzten Aktivkohle durch eine LC-MS-Einzelstoffanalytik der Waschlösungen untersucht. Aus den Ergebnissen wurden Aussagen zum Sorptionsverhalten der untersuchten PFAS bei der Anreicherung an der Aktivkohle abgeleitet und dahingehend Grenzen des AOF-Gesamtverfahrens hinsichtlich der Quantifizierung von PFAS aufgezeigt.
Erzeugung eines 3D-Lungengewebemodells mithilfe einer Luft-Flüssigkeits-Grenzflächen-Zellkultur
(2023)
Die vorliegende Bachelorarbeit befasst sich mit der Etablierung und Entwicklung eines dreidimensionalen Lungengewebemodells auf Grundlage einer Luft-Flüssigkeits-Grenzflächen- Zellkultur. Das In-vitro-Modell sollte die Grenzfläche zwischen dem luftgefüllten Raum der Lungenbläschen und dem Blut innerhalb der Kapillaren rekonstruieren. Für die Nachbildung des Lungenepithels kamen die Lungenkarzinomzelllinie A549 und die humanen primären Bronchialepithelzellen HBEpC zum Einsatz. Das Endothelgewebe wurde mit der somatischen Hybridzelllinie EA.hy926 und den Primärzellen HUVEC rekonstruiert. Die Eignung des entwickelten Modells wurde anhand der Ausbildung einer epithelialen Barrierefunktion sowie der Reaktion auf die Zugabe des Transforming Growth Factors 1 (TGF-β1) bewertet. Während der Etablierung wurde der Einfluss der Kokultivierung auf die epitheliale Barriere untersucht. Des Weiteren wurden verschiedene, kommerziell verfügbare Medien für die Air-Liquid-Interface-Kultur (ALI-Kultur) getestet. Als Anhaftungssubstrat für die Zellen wurden verschiedene Präparationen des extrazellulären Matrix-Proteins Kollagen eingesetzt. Die Kultivierung von Zellen an der Luft-Flüssigkeitsgrenze führte zur Expression spezieller Markergene, die mithilfe von Immunfluoreszenz und einer quantitativen Real-Time PCR quantifiziert wurden. Die Atembewegung ist für die Differenzierung ebenfalls essentiell und somit wichtiger Bestandteil zukünftiger und aussagekräftiger Lungen-in-vitro-Modelle. Diese mechanische Stimulation konnte unter Zuhilfenahme des vom Fraunhofer Institutes (IWS) entwickelten MPSstimulus realisiert werden, sodass es möglich war erste Untersuchungen zur zyklischen, physiologischen und mechanischen Dehnung von Lungenzellen durchzuführen.
IoT- und Smart-Home-Geräte erfreuen sich zunehmender Beliebtheit. Der Bedarf nach IoT-Sicherheit stieg in den letzten Jahren stetig an, was unter anderem mit der Anzahl an Cyberangriffen auf IoT-Geräte begründet ist. Es existieren bereits Zertifizierungs- und Testprozesse, die die IT-Sicherheit von Produkten überprüfen. Um diese zu erweitern und zu beschleunigen, wurde in dieser Arbeit ein Programm konzipiert und umgesetzt, das verschiedene Vorgehen zur Firmwareanalyse implementiert und automatisiert. Hierbei wurde eine modulare Struktur verwendet, sodass weitere Analysen hinzugefügt werden können. Abschließend erstellt das Programm einen Bericht mit den Ergebnissen der Analysen. Er enthält außerdem eine Bewertung der IT-Sicherheit einer Firmware. Die der Firmwareanalyse vorausgehende Extraktion wird erläutert. Das vorgestellte Programm ermöglicht es einem Benutzer, Schwachstellen und Schutzmechanismen eines IoT-Produkts einzuschätzen.
Die vorliegende Bachelorarbeit widmet sich dem Entwurf und der prototypischen Implementierung einer Teilnehmeridentifikationsmethode für LabCon, ein Nutzerverwaltungssystem für Online-Praktika. Der Fokus liegt auf dem Einsatz von Digital Fingerprinting, einer Technologie, die durch die Extraktion charakteristischer Merkmale der Browser und der Geräte von Nutzern eine eindeutige Identifikation ermöglicht.
Die Arbeit bezieht sich auf die Verwendung von Lügendetektoren als Beweismittel vor Gericht. Die Einführung in die Geschichte stellt die Entwicklung dieser Technologie dar. Des Weiteren werden die theoretischen Grundlagen und die Funktionsweisen von Lügendetektortests, sowie deren Kritikpunkte beleuchtet. Insbesondere werden verschiedene Testmethoden und deren Fehleranfälligkeit diskutiert. Zudem wird auf die rechtlichen Aspekte, vorwiegend auf die Beweiswürdigung, sowie auf die Zulässigkeit solcher Tests in gerichtlichen Verfahren, eingegangen.
Instant Messenger gehören zu den am häufigsten verwendeten Applikationen auf mobilen Endgeräten. Sie werden von nahezu allen Altersgruppen genutzt, dabei verwenden eine Vielzahl der Nutzer diese täglich zum Austausch von textuellen Nachrichten, Sprachnachrichten oder multimedialer Dateien. Die Anzahl der Nutzer nimmt seit Jahren kontinuierlich zu. Einer der verbreitetsten Anwendungen ist „Threema“, welche von 22 Prozent der Befragten in Deutschland genutzt wird. Weltweit beträgt die Anzahl der Nutzer elf Millionen. Im Kontext forensischer Untersuchungen wird die Bedeutung der Rekonstruktion von Artefakten von Instant Messenger-Diensten immer größer, da über diese auch ein Austausch von Informationen durch Täter, Opfer und Zeugen von Straftaten stattfindet. Solche Artefakte umfassen Bild- und Videomaterial sowie Standorte oder Textnachrichten. Diese können hilfreich sein, um den Tathergang zu rekonstruieren.
In der vorliegenden Bachelorarbeit werden die Artefakte der Instant Messengers „Threema“ anhand von Beispieldaten aufbereitet und ausgewertet. Dabei stehen Chatverläufe, ausgetauschte Standorte und Kontaktinformationen im Fokus, wobei sie keine Entschlüsselung der Daten oder Rekonstruktion von multimedialen Daten oder gelöschte Daten umfasst. Die Untersuchungen ergaben, dass die Daten in den SQLite- Datenbanken ThreemaData.sqlite und Threema.sqlite-wal abgelegt werden.
Die vorliegende Arbeit befasst sich mit den Anforderungen zur Verbesserung der Mitarbeiterzufriedenheit und -effizienz anhand der Webanwendung des SYSTEMHAUS am Neumarkt. Dazu erfolgt die Recherche gängiger Methoden im Bereich der User Experience. Mit den theoretischen Grundlagen wird der aktuelle Entwicklungsstand analysiert. Es erfolgt eine Evaluation, aus welcher ein Problemkatalog erstellt wurde. Kern der Arbeit ist die Erstellung eines Kriterienkataloges mit konkreten Maßnahmen zur Verbesserung der User Experience. Diese Maßnahmen werden mit Hilfe eines Prototyps visualisiert.
Verschiedenste telefonische Betrugsmaschen, die auf die ältere Generation abzielen, sind in den letzten Jahren in Deutschland exorbitant gestiegen. Ob Schockanruf, WhatsApp-Betrug oder Enkeltrick: die Folgen eines solchen Betrugsfalls werden nur selten aufgezeigt. Anhand einer quantitativen Umfrage und einem Interview mit einer Betroffenen werden in dieser Arbeit die Betrugspräsenz, die Trendentwicklung und der aktuelle Aufklärungsstand am Beispiel des Enkeltricks, sowohl analog als auch digital untersucht. Abschließend werden Handlungsempfehlungen für potenziell gefährdete Menschen ausgesprochen.
Im Reverse Engineering und in der Malware-Analyse wurden bereits verschiedene Ansätze zur Visualisierung von Binärdaten entwickelt. Mit diesen lässt sich schnell ein Überblick über Dateien gewinnen, sodass beispielsweise verschiedene Regionen einer Datei identifiziert oder eine bösartige Datei einer Malware-Familie zugeordnet werden kann. In der vorliegenden Masterarbeit wird versucht, diese Ansätze auch sektorweise auf einen Datenstream anzuwenden. Dafür wird ein Demonstrator erstellt, mit dem Sektoren automatisiert nach Dateitypen klassifiziert werden können. Ziel ist es, einen Ansatz zur Verbesserung der aktuellen, signaturbasierten IT-forensischen Methoden zur Wiederherstellung von fragmentierten oder gelöschten Daten zu finden.
Diese Arbeit beschäftigt sich mit verschiedenen Mehrspielermechaniken und deren Auswirkung auf bestimmte Aspekte des Spielerlebnis. Dafür soll ein zweidimensionales Plattformerspiel erstellt werden. Hierfür erfolgt zunächst die Definition der zu implementierenden Mehrspielermechaniken. Anschließend wird ein Konzept für die einzelnen Mechaniken erstellt wie sie konkret im Spiel eingebaut werden. Danach soll die Umsetzung der erstellten Konzepte erfolgen. Dieses Spiel wird dann mit der Hilfe von Probanden evaluiert. Die Ergebnisse der Evaluation werden danach analysiert, um Aussagen über die Veränderung zuvor ausgewählter Aspekte zwischen den Verschiedenen Mechaniken zu treffen. Umgesetzt wird der praktische Teil der Arbeit in Unity. Es wird in C# programmiert.
In Zeiten, in denen Unternehmen rechenintensive Anwendungen auf externe Server auslagern, gewinnt Cloudcomputing immer mehr an Bedeutung. Das Problem dabei ist, um Operationen auf herkömmlichen, verschlüsselten, ausgelagerten Daten ausführen zu können, müssen diese zuerst entschlüsselt werden. Vertrauliche Daten liegen in dem Zeitraum der Bearbeitung unverschlüsselt vor, was zu einem Datenschutz- und Sicherheitsproblem führt. Dieses Problem kann durch vollständig homomorphe Verschlüsselungen gelöst werden. Diese moderne Verschlüsselungstechnik erlaubt das Ausführen von Operationen auf verschlüsselten Daten und wird in dieser Arbeit grundlegend vorgestellt. Weiterhin werden Bibliotheken, die homomorphe Verschlüsselungen implementieren, vorgestellt und mittels Benchmarking miteinander verglichen. Anschließend wird ein Anwendungsbeispiel formuliert, das die Vor- und Nachteile homomorpher Verschlüsselungen simulieren soll. Die Implementierung des Anwendungsbeispiels erfolgt mithilfe der im Benchmarking ermittelten leistungsstärksten Bibliothek - der Microsoft SEAL Bibliothek. Mit den in dieser Arbeit erlangten Erkenntnissen soll der Einstieg in die komplexe Thematik der homomorphen Verschlüsselungen vereinfacht werden und gleichzeitig zur Auseinandersetzung mit dieser Verschlüsselungsmethodik angeregt werden.
Die vorliegende Bachelorarbeit befasst sich mit der digitalen Blutspurenmusteranalyse in dreidimensionalen Modellen, welche mit Hilfe der Software „Blender“ durchgeführt wird. Das Ziel ist es, 3D-Koordinaten aus den gegebenen 2D-Koordinaten der Modelltextur zu generieren, um anschließend auf diesen Koordinaten Trajektorien einzeichnen zu können. Diese sollen die Flugbahnen der jeweiligen Blutstropfen zurück zum Ursprungsort repräsentieren.
Der Inhalt dieser Arbeit befasst sich mit der Verbesserung und somit Optimierung einer Multiplex-Färbung für die Metastasen des malignen Melanoms, wobei das sogenannte CODEX-System verwendet wird. Wie bei vielen anderen Krebserkrankungen ist die Metastasierung ausschlaggebend für eine hohe Mortalität. Um besser gegen die Metastasen vorgehen zu können, ist ein Verständnis ihrer Mikroumgebung und somit auch die Wechselwirkungen zwischen Tumor und Normalgewebe notwendig. Mithilfe der Multiplex-Technologie kann diese Mikroumgebung durch die Markierung von bis zu 50 Markern gleichzeitig in einem Gewebeschnitt weitreichend dargestellt werden. Anhand von Markern für Phosphoproteine kann zudem die Aktivierung bestimmter Signalwege nachgewiesen werden, wie zum Beispiel die des MAPK-Signalwegs, welcher in malignen Melanomen aufgrund bestimmter Mutationen in diesem Signalweg oftmals hochreguliert ist.
Das Ziel in der vorliegenden Arbeit ist es zu beantworten, ob die Programme Magnet AXIOM und Kipo Analyzer sich für die Klassifikation von Kinderpornographie eignen. Dazu wird folgende Forschungsfrage gestellt: Erkennen die Programme Magnet AXIOM und Kipo Analyzer ausreichend kinderpornographisches Material von gesicherten Asservaten, um die Anforderungen zur Entlastung von Ermittlern zu erfüllen? Zur Beantwortung dieser Frage wurde ein selbst zusammengestellter Datensatz mit den Programmen getestet. Hierbei erzielte das Programm Magnet AXIOM einen Recall von 70,13 % und eine Spezifität von 60,42 %. Im Vergleich erzielte der Kipo Analyzer einen Recall von 42,56 % und eine Spezifität von 97,5 %. Die Präzision und der F1-Score fiel bei beiden Programmen schlecht aus durch den unausgeglichenen Datensatz. Abschließend kann keine endgültige Aussage über die Eignung der Programme hinsichtlich der Klassifikation von Kinderpornographie gemacht werden. Die Programme müssten mit unterschiedlichen Datensätzen und Zusammensetzungen getestet werden.
Der Einsatz digitaler Mittel in der Tatortrekonstruktion soll in der Zukunft eine große Stütze in der Verbrechensaufklärung werden. Die Rekonstruktion des Bewegungsablaufs eines Opfers, ist als Bewegungsanalyse ein großer Teil dieses Forschungsgebietes. Um eine möglichst natürliche und anatomische korrekte Simulation der Bewegungsabläufe zu ermöglichen, werden Ragdollmodelle benötigt. Diese Arbeit befasst sich mit der Optimierung des Erstellungsprozesses und des Aufbaus dieser bereits bestehenden Ragdollmodelle, in der aktuellen forensischen Tathergangsrekonstruktion.
Das Ziel der vorliegenden Arbeit ist es eine Übersicht über aktuell relevante und am Markt vertretene Zutrittskontrollsysteme zu erstellen. Dazu wird zuerst die grundlegende Theorie hinter den einzelnen Zutrittskontrollsystemen vorgestellt. Im Anschluss werden die vorgestellten Zutrittskontrollsysteme durch selbst ausgewählte Kriterien nach Sicherheit und Komfort bewertet. Dabei stellte sich der Handvenenscan in dem Bereich Sicherheit durch das sehr niedrige Verlust-, Weitergabe- und Nachahmungsrisiko und im Bereich Komfort durch die kontaktlose Verwendung, dem geringen Aufwand, der niedrigen Schmutzempfindlichkeit und dem niedrigen Schmutzempfinden als hervorragend heraus. Anschließend wird ein Flussdiagramm als Entscheidungshilfe vorgestellt. Dieses hat den Zweck das geeignete Zutrittskontrollsystem für die private Nutzung oder der Nutzung im Unternehmen zu finden. Dabei werden aktuell auf dem Markt befindliche Produkte vorgestellt.
Diese Bachelorarbeit untersucht die Auswirkungen von auditiven und visuellen Reizen auf das Spielerlebnis beim Lösen von interaktionsbasierten Rätseln.
In der Welt des Spieldesigns spielen sensorische Hinweise eine entscheidende Rolle um Spieler zu fesseln, sie in das Spiel eintauchen zu lassen und sie durch Herausforderungen zu führen.
Die Arbeit befasst sich mit der Frage, welche Art sensorischer Reize faszinieren und damit Immersion und Effektivität bei der Vermittlung von Rätselinformationen bewirken. Darüber hinaus wird untersucht, wie individuelle Vorlieben und Fähigkeiten sensorische Reizverarbeitung betreffend den allgemeinen Spielspaß beeinflussen können.
Der visuelle mikroskopische Spermanachweis gilt bis heute als aussagekräftigster Nachweis von Spermien in der forensischen Fallarbeit. Anhand der markanten Zellmorphologie kann ein Spermium von anderen Zellen und Partikeln unter dem Mikroskop abgegrenzt und unterschieden werden. Voraussetzung hierfür sind jedoch eine zuverlässige Aufarbeitungsmethode, um die Spermien eines Asservats auf einen Objektträger zu überführen und eine valide Färbemethode, welche die Spermien erst sichtbar macht.
Zielsetzung dieser Arbeit ist es, eine zeitsparende und effiziente Färbemethode zu finden, die in der praktischen Laborarbeit für den mikroskopischen Spermanachweis sicher angewandt werden kann. Verglichen werden hierfür im Folgenden die lichtmikroskopische Kernechtrot-Pikroindigokarmin- und die fluoreszenzmikroskopische SPERM HY-LITER-Färbung. Weiterführend werden reale Fallproben auf Spermien untersucht, um somit praxisnahe Gewissheit über die Effizienz der Methoden zu erlangen.
Die Recyclingfähigkeit von faserbasierten Lebensmittelverpackungen wird durch Restanhaftungen des Lebensmittels vor Probleme gestellt. Dadurch ausgelöste Verkeimungen bei der Altpapierlagerung beeinträchtigen den Recyclingprozess. Die entwickelten Mikroorganismen beeinflussen wiederum die Herstellungskette innerhalb einer Papierfabrik, da es zu hohen organischen Belastungen kommen kann. Die Bachelorarbeit untersucht den mikrobiologischen Einfluss von Lebensmitteln, auf die Altpapierlagerung derer faserbasierter Verpackungen.
Die Arbeit gibt eine Einführung in Schnorr-Multisignaturen im Kontext des Taproot-Updates, wie es im Bitcoin Improvement Proposal (BIP) Nr. 340 vorgeschlagen wird. Schnorr-Multisignaturen bieten einen effizienten und sicheren Weg für mehrere Parteien, gemeinsam eine einzige Signatur zu erstellen, die ihre gemeinsame Zustimmung repräsentiert. Das Taproot-Update zielt darauf ab, die Privatsphäre, Skalierbarkeit und Flexibilität des Bitcoin-Protokolls durch die Einführung von Schnorr-Multisignaturen als zentrales Element zu verbessern. Die Arbeit beginnt mit einem Überblick über die Grundlagen digitaler Signaturen und zeigt die Schwächen bestehender Signaturschemata in Bitcoin auf. Anschließend werden die theoretischen und mathematischen Grundlagen von Schnorr-Multisignaturen untersucht, einschließlich ihrer Konstruktion, Sicherheitseigenschaften und Vorteile gegenüber traditionellen Schemata. Die Bedeutung des Taproot-Updates für das Bitcoin-Netzwerk wird diskutiert und hervorgehoben, wie das Update die Effizienz von Transaktionen und den Schutz der
Privatsphäre verbessern kann. Die Einführung von Schnorr-Signaturen im Bitcoin Core war ein wichtiger Schritt. Signaturen sind häufig Angriffen ausgesetzt, weshalb weitere Anpassungen wie die Implementierung von MuSig2 sinnvoll sind. Nach der Effizienzsteigerung sollte der Fokus nun verstärkt auf die Sicherheit gelegt werden.
Diese Arbeit beschäftigt sich mit der Konzeption und Erstellung einer Kompetenzmatrix zur Verbesserung der Selbsteinschätzung von Studierenden im Bereich des Medieninformatik Studiums an der Hochschule Mittweida. Neben der Erstellung der Matrix wurde zusätzlich eine Evaluation an Studierenden und Absolventen durchgeführt. Eine Auswertung sowie eine Handlungsempfehlung und eine Weiterentwicklungsmöglichkeit der Matrix und aller erarbeiteten Bestandteile befindet sich ebenfalls in dieser Arbeit.
Die folgende Arbeit befasst sich mit dem forensischen Informationspotential von Smart Home Security Geräten, in diesem Fall dem Starter-Kit der Firma Ring. Hierfür wurde die Funktionsweise des Systems genauer untersucht und es wurden Manipulationsversuche und Datensicherungen durchgeführt. Diese Manipulationen bezogen sich hier genauer auf die zwei internetfähigen Geräte, die Basisstation und die Kamera. Die Datensicherungen fokussierten sich insbesondere auf den allgemein gesicherten Daten und Hinweisen zu den Manipulationen.
Ziel der Arbeit ist es, innerhalb einer forensischen Analyse die Ablagestruktur der Chatanwendung Viber unter dem Betriebssystem iOS zu analysieren. Darüber hinaus sollen Dateien analysiert werden, um relevante Informationen zu Chats zu extrahieren und auswertbar zu machen. Bei der Recherche zum aktuellen Forschungsstand wurden kaum Arbeiten gefunden, welche eine tiefgehende forensische Analyse von Viber auf iOS-Geräten zum Gegenstand haben. Für die Auswertung wurden Testdaten in Form von Einzel- und Gruppenchats auf iOS-Geräten erstellt und die Geräte anschließend IT-forensisch ausgelesen. Durch die Verwendung des Auslesegerätes UFED Touch2 konnte die Ablagestruktur mittels des UFED-Readers analysiert und dokumentiert werden. Die Analyse der Dateien brachte Informationen aus den zwei Hauptdatenbanken 'Settings.data' und 'Contacts.data' hervor. Hierbei wurden alle Tabellen analysiert und Informationen zu den relevanten Spalten dokumentiert. Abschließend wurden für einen Leitfaden zur Rekonstruktion von Chats SQL-Befehle erstellt, welche zum einen eine Zusammenfassung von Informationen zu Konversationen und zum anderen eine Wiederherstellung von Chatverläufen der einzelnen Konversationen möglich machen sollen.
Im Jahr 2019 verzeichnete das Bundeskriminalamt in der Polizeilichen Kriminalstatistik einen neuen Höchststand an erfassten Fällen der Computerkriminalität. Zeitgleich lag die Aufklärungsquote für diesen Bereich der Kriminalität auf dem zweitniedrigsten Stand seit Beginn der Erfassung im Jahr 1987. Die digitale Forensik steht vor der Herausforderung, dass eine Ermittlung eine stetig wachsende Menge an heterogenen Daten umfasst. Eine Quelle für diese Daten bildet das Microsoft Betriebssystem Windows 10.
Diese Bachelorarbeit beschäftigt sich mit Artefakten eines Windows 10 Systems und damit, wie diese miteinander korreliert werden können. Ziel ist es eine Möglichkeit zu finden, den Forensiker bei einer forensischen Untersuchung zu unterstützen. Für diesen Zweck wurde eine Ontologie entwickelt, welche anhand ähnlicher Artefaktattribute eine Korrelation ermöglicht. Die praktische Umsetzung der Ontologie erfolgte mithilfe der Graphdatenbank Neo4j. Die Möglichkeiten der Datenbank wurde anhand von, für den Forensiker interessanten, Abfragen demonstriert.
Anlegen und Charakterisieren von Anreicherungskulturen aus Oberflächengewässern im Norden Finnlands
(2020)
Es wurden Wasserproben aus Finnland biochemisch charakterisiert. So wurden EcoPlates von BIOLOG benutzt, um die Wasserproben von heterotrophen mikrobiellen Gemeinschaften zu charakterisieren und klassifizieren. Zudem wurden Anreicherungskulturen erstellt und auf ihre Verwertung von Stickstoffquellen durch Phänotyp Mikroarray und auf ihre Zellwandzusammensetzung mit Gram-Färbung untersucht. Die daraus resultierenden Ergebnisse werden für die Bestimmung und Charakterisierung von den Anreicherungskulturen verwendet.
Die vorliegende Arbeit untersucht, wie eine Ontologie mobile Kommunikation für forensische Auswertungen abbilden kann und welche Chancen sich aus dieser Art von Repräsentation ergeben. Prinzipiell stellen Ontologien einen Lösungsansatz für die wachsenden Herausforderungen im Bereich der digitalen Forensik dar. Vor allem die Heterogenität und stark zunehmende Menge der auszuwertenden Daten stellt die Strafverfolgungsbehörden vor Probleme. Forensische Tools unterstützen bei der Extraktion und Analyse von Daten. Allerdings weisen sie in bestimmten Aspekten ihre individuellen Grenzen auf. Ontologien ermöglichen dabei die Interoperabilität zwischen forensischen Tools und somit die Kombination der jeweiligen Vorteile von diesen Tools. Somit können insbesondere (Teil-)Automatisierungen im Ermittlungsprozess realisiert werden, was zur Ersparnis von Zeit und Ressourcen führt. Darüber hinaus lassen sich anhand von Ontologien logische Schlussfolgerungen herleiten und weitere Methoden aus dem Bereich der künstlichen Intelligenz anwenden. Diese Arbeit verwendet die CASE-Ontologie als Grundlage zur Entwicklung einer Ontologie, welche mobile Kommunikation im Kontext forensischer Untersuchungen repräsentiert. Darüber hinaus wird im experimentellen Teil der Arbeit das Datenmodell einer forensischen Plattform zur Auswertung mobiler Kommunikation auf die entworfene Ontologie abgebildet. Zusätzlich wird ein semantischer Webserver prototypisch aufgesetzt, um einen Anwendungstest der Ontologie durchführen zu können.
Im Rahmen von vielen Kriminalfällen werden Audio- und Videoaufnahmen asserviert und ausgewertet. Häufig sind in den Mediendateien unabsichtliche Aufzeichnungen des Stromnetzfrequenz- brummen enthalten. Diese können extrahiert und analysiert werden. Sofern entsprechende Aufzeichnungen über vergangene Stromnetzfrequenzverläufe vorliegen, können selbige zur Identifikation des Aufnahmeortes und Aufnhahmezeitpunktes herangezogen werden. Innerhalb dieser Bachelorarbeit wird ein Stromfrequenz-Messgerät für den Aufbau einer Stromfrequenzdatenbank konzipiert. Weiterhin werden Störeinflüsse evaluiert, die eine erfolgreiche Messung verhindern können.
Die vorliegende Arbeit beschäftigt sich mit der Erforschung des Datenvorkommens im Hinblick auf die Ermittlung flüchtiger Daten an ausgewählten Wireless Local Area Network (WLAN)-Routern. Diese werden im Hinblick auf strafrechtlich relevante Fragestellungen untersucht. Es werden die Möglichkeiten der methodisch und systematischen Datensicherung eruiert und wie diese gewonnen und ausgewertet werden können.
In dieser Bachelorarbeit werden die Artefakte im Arbeitsspeicher der Webclients des Instant-Messenger-Dienstes Threema und des Social-Media-Dienstes Instagram aus forensischer Sicht betrachtet. Hierfür werden die Funktionsweisen der Anwendungen und die auf dem Gerät im RAM enthaltenen Artefakte forensisch analysiert und diskutiert. Anhand der aus dieser Arbeit gezogenen Erkenntnisse sollen zukünftige forensische Untersuchungen, die in Verbindung mit einer oder beiden dieser Anwendungen stehen, unterstützt werden, gefundene Artefakte zu identifizieren und interpretieren.
Die fortschreitende Digitalisierung stellt Ermittlungs- und Strafverfolgungsbehörden vor große Herausforderungen. Die steigenden Datenmengen sind insbesondere für die Aufklärung von Delikten wie der Kinderpornografie ein Problem, da große Datenbestände manuell gesichtet werden müssen. Um Herr der Lage zu bleiben, müssen neue Ermittlungsansätze eingeführt werden, die sich technisch unterstützender Werkzeuge wie KI bedienen. Zielen solche Hilfsmittel heute auf die Reduktion der händisch zu analysierenden Materialien ab. Bisher fehlt eine semantische Betrachtungsmöglichkeit der kinderpornografischen Inhalte, um Bild- und Videomaterialien einer Aufnahmeserie zuordnen zu können. Diese Forschungsarbeit befasst sich mit der Konzeption der semantischen Analyse kinderpornografischer Materialien.
Die vorliegende Arbeit befasst sich mit dem Fakeshop Phänomen als Cybercrime Delikt. Nach einer kurzen Erläuterung des Bereiches Cybercrime und einer Darstellung der Phänomenologie eines Fakeshops wird dieser anhand einer beschriebenen Sachlage auf seine Strafbarkeit analysiert. Zur Analyse werden Rechtsnormen aus dem Strafgesetzbuch hinzugezogen, die in der Literatur dem Cybercrime im engeren Sinne zugeordnet sind. Anhand dessen soll erörtert werden, welche Tatbestandsmerkmale der Paragrafen durch den Sachverhalt festgestellt werden können und ob der objektive Tatbestand bei einem Fakeshop Phänomen erfüllt wird. Des Weiteren werden mögliche Folgen, die durch einen Fakeshop auftreten können präsentiert und im Anschluss dessen einige Möglichkeiten aufgezeigt, um sich präventiv gegen eine Fakeshop-Falle schützen zu können.
Die Arbeit beschäftigt sich mit dem Bakterium Cereibacter sphaeroides, seiner Fähigkeit zur Wasserstoffproduktion im Rahmen der Stickstofffixierung sowie den Möglichkeiten der genetischen Modifikation des Bakteriums. Ziel der Arbeit ist die Entwicklung eines Baseneditors, der mit Hilfe des CRISPR/Cas9-Systems eine Zielregion modifizieren kann. Zur Erzeugung eines solchen Baseneditors wurde zunächst eine sgRNA synthetisiert und deren Funktion in einem in vitro Verdau mit Cas9 überprüft. Als Substrat wurden PCR-Produkte einer Region des rpoN-Gens verwendet. Dieses kodiert für den Transkriptionsfaktor σ54, welcher bei der Expression des Nitrogenasesystems eine Rolle spielt. Ein SNP auf diesem Gen steht im Verdacht mit der höheren Wasserstoffproduktion in Gegenwart von verfügbarem Stickstoff eines Substammes von C. sphaeroides zu stehen. Es zeigte sich, dass die sgRNA für die angestrebte Target-Region (rpoN-Gen) genutzt werden kann.
Nach Etablierung des Cas9-Verdaus sollte ein Baseneditor mittels in vitro Proteinsynthese hergestellt und anschließend für eine Baseneditierung eingesetzt werden. Die Synthese des Baseneditors konnte bisher noch nicht erfolgreich abgeschlossen werden.
Ein weiteres Teilprojekt befasste sich mit der Identifizierung von Kontaminationen in einigen Dauerkulturen von C. sphaeroides. Hierzu wurde ein 16s-Metabarcoding mittels Nanoporensequenzierung durchgeführt. Es wurde jedoch fast ausschließlich C. sphaeroides in der Sequenzierung nachgewiesen.
Zukünftig sollen noch Optimierungen hinsichtlich der Synthese des Baseneditors vorgenommen werden. Anschließend soll der Baseneditor zur in vitro Basenmodifikation eingesetzt werden. Nach erfolgreicher in vitro Baseneditierung soll das System anschließend in ein in vivo System in C. sphaeroides implementiert werden. Langfristiges Ziel ist die Nutzung eines genetisch veränderten C. sphaeroides Stammes als Wasserstoffproduzent.
In dieser Bachelorarbeit wird das Thema der Cheiloskopie behandelt. Genauer gesagt wird die Geschlechtsbestimmung anhand der einzigartigen Lippenmuster intensiver thematisiert. Dafür kommen sowohl künstliche Intelligenzen als auch Elemente der Bildverarbeitung zum Einsatz. Die Arbeit zielt darauf ab den gesamten Prozess weitestgehend zu automatisieren und zu optimieren
Seit 2018 befindet sich das Projekt „BuggyTech Engine“ an der Hochschule Mittweida in studentischer Entwicklung. Auf dieser Game Engine soll das von der Autorin konzipierte Spiel „Neon Nova“ laufen, wofür sie ein Game Design Document (GDD) erstellte. Das GDD stellt als grundlegendes Dokument, welches sämtliche relevanten Aspekte eines zu entwickelnden Spiels beschreibt, ein Herzstück in der Videospielentwicklung dar. Es dient als zentrales Werkzeug für das Entwicklerteam, um gemeinschaftlich auf ein klares Ziel hinzuarbeiten. In der klassischen Softwareentwicklung werden Anforderungen und Spezifikationen an eine zu entwickelnde Software detailliert in Form eines Lastenheftes verschriftlicht, welches für die Entwickler ähnliche Funktionen hat, wie das GDD. Diese Konzepte werden, neben der Erarbeitung zusätzlicher Wissensgrundlagen, zunächst dargestellt und auf Inhalte, sowie Vor- und Nachteile untersucht. Im Hauptteil dieser Arbeit wird die Eignung eines GDD als Grundlage für die Anforderungsanalyse einer Game Engine am Beispiel von Neon Nova und der BuggyTech Engine untersucht. Der Prozess der Erstellung des Lastenheftes wird dargelegt und die Ergebnisse vorgestellt. Zudem wurden Datenmodelle und UI Layouts für die spezifische Anwendung in de BuggyTech Engine konzipiert. Abschließend wird ein Fazit über den Prozess und die Geeignetheit der aufeinander aufbauenden Arbeitsweise der beiden Dokumente gezogen, welche normalerweise nicht miteinander in Kontakt kommen. Das Ergebnis der Arbeit ist ein vollständiges, für die Weiterentwicklung der BuggyTech Engine nutzbares Lastenheft.
Die Anforderungen an die Qualität und den Realismus von Videospielen und deren visuellen Effekten steigen kontinuierlich. Dies führt zu der Herausforderung, beeindruckende Effekte und eine gute Performance zu gewährleisten. Die Auswahl einer geeigneten Technik für ein Leistungsproblem ist daher wichtig. Aus diesem Grund widmet sich die Bachelorarbeit dem Vergleich verschiedener Methoden zur Optimierung der Darstellung visueller Effekte in Unity. Neben einer Literaturrecherche werden ausgewählte Verbesserungsmöglichkeiten wie zum Beispiel ein Level-of-Detail System oder Batching implementiert. Als nächstes findet eine Evaluation dieser Techniken in einem Testszenario mit ausgewählten Metriken wie beispielsweise Bildrate und Grafikkartenauslastung statt. Anschließend erfolgt der Vergleich ihrer Effektivität in Bezug auf die originale Version des visuellen Effektes. Die Ergebnisse der Untersuchung zeigen, dass insbesondere das Level-of-Detail System und die Culling-Methode einen signifikanten Einfluss auf die Grafikkartenauslastung haben. Zudem weisen die meisten Optimierungstechniken in Bezug auf die Metriken Vor- und Nachteile auf. Obwohl die erzielten Ergebnisse nicht unmittelbar auf die praktische Anwendung in Spielen übertragbar sind, ermöglichen sie dennoch eine wertvolle Vergleichbarkeit der angewendeten Methoden.
Das Ziel der vorliegenden Bachelorarbeit ist es, digitale Spuren im Speicher eines elektrischen Tretrollers zu untersuchen. Der Roller stammt aus einem ehemaligen Verleihsystem und es existiert von Beginn dieser Arbeit an keine Kenntnis darüber, ob digitale Informationen auf dem Speicher zugänglich und überhaupt vorhanden sind. Es wird resultierend aus der vergangenen Nutzung des Rollers innerhalb des „Sharing-Angebotes“ davon aus gegangen, dass entsprechende Daten erzeugt worden sind. Dazu können Informationen zählen, die z.B. Aufschluss über die zurückgelegte Strecke geben. Es gilt herauszufinden, ob sich diese und auch andere Daten auf dem Speicher der „IoT-Elektronik“ des Rollers befinden. In Abhängigkeit des Resultates liegt der Fokus auf entsprechender Rekonstruktion dieser Daten. Soweit es machbar erscheint, obliegt ein weiterer Analyseaspekt der Firmware des E-Scooters, um das Zusammenspiel der lokalen Hardware-Komponenten und des entfernten „Backends“ nachvollziehen zu können. Der Roller wird für diese Bachelorarbeit physisch zerlegt und es kommen unterschiedliche, software-basierte Werkzeuge für die Analyse zum Einsatz.
Diese Arbeit behandelt das Thema der Sichtbarmachung von Fingerabdrücken, sowie deren photogrammetrische Aufnahme. Dabei wird die Frage geklärt, ob der Qualitätsverlust eines photogrammetrischen Scans das Erkennen des Grundmusters, einzelner Minuten und eventuell auch kleineren Strukturen beeinträchtigt. Es werden die angewandten Methoden zur Sichtbarmachung, Sicherung und Photogrammmetrie präsentiert, sowie die daraus resultierenden Ergebnisse.
Die Arbeit behandelt das Zephyr Echtzeitbetriebssystem. Im Rahmen der Arbeit wird besprochen wie ein System-on-a-Module (SoM) in Zephyr umgesetzt werden kann, und welche Optionen das Konfigurationssystem bietet um die Zephyrapplikation an Hardware- und Systemänderungen anzupassen ohne den Quellcode für den jeweiligen Build verändern zu müssen. Dafür wurde eine Beispielapplikation auf Basis des i.MX RT1170 Prozessors von NXP erstellt. Dieser Chip soll beim Projektpartner in Zukunft die Grundlage für ein System-on-a-Module bilden, welches in die Grundplatinen der verschiedenen Geräte eingesetzt wird. Zum Schluss der Arbeit wird außerdem besprochen wie ein Bootloader verwendet werden kann um Updates in ein laufendes System einzuspielen.
Die A12 Businessanwendung der Firma mgm technology partners GmbH ist modellgetrieben. Damit die Architektur grafisch dargestellt werden kann, wird ein Layout-System benötigt, an das unterschiedliche Anforderungen gestellt werden. Sie umfassen unter anderem die Minimierungen der Knotenüberschneidungen, der Kantenüberschneidungen und der Biegungen der Kanten.
In der vorliegenden Arbeit werden bereits existierende Layout-Algorithmen betrachtet. Dabei wird besonders darauf geachtet, wie sich diese an die gestellten Anforderungen anpassen lassen. Es stellt sich heraus, dass die Layouts dazu jeweils unterschiedlich gut geeignet sind. Um eine Messbarkeit der Ästhetik zu ermöglichen, werden Metriken definiert.
Es werden zwei Layouts gewählt, welche zur Umsetzung aller Anforderungen besonders geeignet sind. Dabei handelt es sich um das Radial Baum Layout und das kraftgesteuerte Layout, das bereits ein gutes Layout darstellt. Es kann gezeigt werden, dass mithilfe von Anpassungen eine deutliche Verbesserung der Ästhetik von Layouts erreicht wird.
Als Ergebnis der Arbeit entsteht eine Implementierung des kraftgesteuerten Layouts, welche Knotenüberschneidungen fast vollständig eliminiert, ohne dabei andere Aspekte der Graphendarstellung zu stören.
Diese Arbeit untersucht, die Herausforderungen bei der teilautomatischen Erstellung von Testdaten für die digitale Forensik. Insbesondere handelt es sich um Bildmetadaten im EXIF-Format, aus der Fotogalerie eines Smartphones, die mit GPS-Daten und zugehörigen Zeitstempeln für eine feste Route angereichert werden. Dazu wird auf Metadaten, Geokoordinaten und Zeitstempel eingegangen sowie der aktuelle Stand zu EXIF aufgezeigt. Mit diesem Wissen entsteht ein Programm, das die Testdaten erzeugt.
Das Videospiel immer häufiger auch als erzählerisches Medium genutzt. Von den Entwicklern fordert dies eine Gradwanderung zwischen Game Design und Erzählung. Es mussten mit der Zeit neue Wege gefunden werden, Narrativen in das Spiel einzubinden. Diese Arbeit thematisiert die Untersuchung der Wahrnehmung und Interpretation von Environmental Storytelling in 2D-und 3D-Umgebungen. Es wird untersucht, ob es, abhängig von der Dimensionalität, Unterschiede in der Effektivität verschiedener Erzählerischer Mittel gibt. Um diese Frage zu beantworten, werden zwei sich inhaltlich gleichende Demos erstellt, die sich nur durch ihre Darstellung unterscheiden. Die, durch eine Befragung der zwei Testgruppen, erhobenen Daten werden anschließend evaluiert. Es ergab sich, dass dreidimensionale Umgebungen eher zum Erkunden einladen, es werden jedoch im Gegensatz zu 2D-Welten leichter wichtige Objekte übersehen. Für weitere Forschungen, sollten einzelne Aspekte des Environmental Storytelling genauer untersucht und bewusst auf die entsprechende Dimensionalität angewandt werden.
Im Rahmen der vorliegenden Masterarbeit wurden zwei CAN-Bus-Steuergeräte konzeptioniert und entwickelt, welche auf einem forensischen Demonstrator verbaut wurden. Die Funktionen der Steuergeräte sind zum einen die Steuerung einer Beleuchtungseinheit, zum anderen die Abstandsmessung sowie die Akkustandsüberwachung. Als Steuergeräte fungieren Arduino Nanos, welche über SPI mit CAN-Modulen kommunizieren können. Mit Hilfe der Analysesoftware BUSMASTER können CAN-Botschaften auf den CAN-Bus des Demonstrators gesendet werden. Der Demonstrator dient dabei als Grundlage für spätere forensische Untersuchungen des Controller Area Networks.
Analyse dezentraler Identifikation mittels Sidetree-Protokolls, am Beispiel von Microsoft ION
(2021)
This master thesis deals with the field of decentralized identification, using the example of the Microsoft Identity Overlay Network (ION). In the introduction, basic terms such as identity and identification are described. A special emphasis is placed on the explaining of the principle of decentralized identifiers (DIDs) and the SSI concept. ION is an implementation of the Sidetree protocol and uses its core components. This is the reason why more details and special parts of Sidetree are described in the methods chapter. Afterwards the ION history and network topology is typify more in detail. An ION node will be installed and operated on top of the Bitcoin blockchain. The installation process and the problems that arise are recorded. Then the ION tools (a programming library and its values) will be explained and the example program code is shown. As a practical addition of the ION tools, a verifiable credential solution is scripted. This solution shows the creation of ION-DID and the signature options of these identifiers. In the results chapter the knowledge acquired via the decentralized identification is evaluated. A theoretical security analysis for ION is implemented. Furthermore, a list of the currently possible uses for the network is enumerated. A discussion is initiated that compares the advantages and disadvantages of ION. The thesis ends with a conclusion and an outlook for ION and decentralized identification.
In einer Welt, in welcher die Anzahl der mit digitalen Geräten ausgeübten Straf-taten die zuständigen Behörden zu überrollen scheint, ist es an der digitalen Forensik, neue Wege der Verbrechensbekämpfung zu beschreiten. Um eine Viel-zahl an digitalen Spuren auszuwerten, benötigt es außerdem spezialisierter Werkzeuge und Methodiken. Das in Korrelation mit dieser Arbeit entwickelte Programm verfolgt das Ziel, einen bisher manuellen Ablauf in der forensischen Software „X-Ways Forensics“ zu automatisieren und somit Aufwand und Komplexität zu reduzieren. Genauer versucht die sogenannte „X-Tension“, eine Datei vom Dateityp „.vmdk“ innerhalb eines Falles ausfindig zu machen, um diese anschließend als neues für sich stehendes Asservat auswerten zu können. Die Arbeit zeigt dabei die Arbeitsweise des Programmes sowie Chancen für die Zukunft auf.
Diese Arbeit befasst sich mit der Erstellung einer Vorgehensweise für das Durchführen von Sicherheitstests von Cloud-Infrastrukturen des Typs Microsoft Azure. Dafür werden anfangs der grundlegende Aufbau und die technische Realisierung der genannten Infrastruktur erarbeitet. Dies beinhaltet eine Feststellung der potenziellen Angriffsfläche nach außen. Ebenso geschieht eine Erfassung und Kontextualisierung des bereits bestehenden Wissens in Bezug auf Sicherheitstests von Azure-Cloud-Umgebungen. Im Detail umfasst dies die Generierung einer Übersicht über anerkannte und erprobte Vorgehensweisen, Best Practices, verfügbare und zu verwendende Tools sowie häufige Sicherheitslücken in Azure Umgebungen. Darüber hinaus müssen offenkundige Grenzen innerhalb bestehender gesetzlicher Regularien sowie technischer Implementierungen für die Erstellung des Konzepts erfasst werden. Im Anschluss werden die erlangten Informationen genutzt, um vereinheitlicht eine Guideline zu entwerfen, nach welchem ein strukturierter Sicherheitstest einer Azure-Cloud-Infrastruktur durchgeführt werden kann. Letztendlich erfolgt eine vergleichende Diskussion der vorliegenden Feststellungen mit bestehenden anderen Vorgehensweisen, um diese Arbeit einzuordnen.
In dieser Arbeit ging es darum, eine Softwarelösung zu entwickeln, die auf die Anforderungen der Game Accessibility Guidelines abgestimmt ist. Die Godot Game Engine wurde als Entwicklungsplattform ausgewählt, da sie sich durch eine hohe Flexibilität und Skalierbarkeit auszeichnet. Durch die Verwendung dieser Engine war es möglich, eine stabile und robuste Basis zu schaffen, auf der die Implementierungen aufgebaut werden konnten. Ein wichtiger Aspekt bei der Entwicklung war die Wahl der richtigen Softwarearchitektur. Es wurde untersucht, welche Architekturen sich am besten eignen, um eine optimale Leistung und eine hohe Benutzerfreundlichkeit zu gewährleisten. Dazu wurden verschiedene Ansätze getestet und verglichen, um die bestmögliche Lösung zu finden. Im nächsten Schritt wurden die Implementierungen von Studierenden getestet und evaluiert. Dabei wurden Aspekte wie die Benutzerfreundlichkeit und der Mehraufwand, der durch die Nutzung der implementierten Features entsteht, untersucht. Es wurde auch darauf geachtet, wie verständlich die Implementierungen gestaltet sind und wie leicht sie zu bedienen sind. Die Ergebnisse der Evaluation wurden dann reflektiert und der Aufwand der Implementationen wurde in Hinblick darauf untersucht, dass es sich bei den Anforderungen fast ausschließlich um solche handelt, die laut den Game Accessibility Guidelines als Anforderungen mit geringer Komplexität eingestuft werden. Dies bedeutet, dass die Implementierung dieser Anforderungen relativ einfach sein und keine großen Schwierigkeiten bereiteten sollten. Insgesamt war die Entwicklung der Softwarelösung ein Erfolg und hat gezeigt, dass die Einschätzung der Komplexität der Game Accessibility Guidelines größtenteils bestätigt werden kann. Des Weiteren wurde die Implementation von den Studierenden gut angenommen. Die Ergebnisse der Evaluation können dazu beitragen, einen technischen Ansatzpunkt für zukünftige Bewertungen der Anforderungen und Implementationsversuche zu bieten.
Im Rahmen der Arbeit wurde untersucht, inwiefern visuelle Störfaktoren die Spielerfahrung beim Spielen von digitalen Spielen zu beeinflussen vermögen. Hierfür wurde zunächst Grundlagenwissen zur visuellen Wahrnehmung des Menschen und zu visuellen Störfaktoren zusammengetragen. Basierend auf diesen Kenntnissen wurden im Anschluss ausgewählte visuelle Störfaktoren in einem einfachen 2D-Spiel implementiert, welches von Testpersonen gespielt wurde. Während dieses Experiments wurden sowohl die subjektiven Spielerfahrungen in Form einer Umfrage als auch die objektiven Leistungen innerhalb des Spieles erfasst, um nach Auswertung dieser Daten Schlussfolgerungen über den Einfluss der visuellen Störfaktoren auf die Spielerfahrung treffen zu können.
Diese Arbeit beschäftigt sich mit der Entwicklung von performanten Modulen zur Implementierung von Netcode in einem Multiplayer-Spiel. Sie vergleicht dabei zunächst verschiedene Frameworks und dokumentiert den Entscheidungsprozess anhand eines konkreten Spiels. Es werden daraus folgend mehrere Ansätze für den Aufbau eines Netzwerkmoduls aufgezeigt und diese schließlich miteinander auf ihre Performance verglichen.
In dieser Arbeit soll sich mit der Möglichkeit beschäftigt werden, den Prozess zur Freischaltung von Firewallregeln zu vereinfachen. Dafür soll ein Programm entwickelt werden, welches diesen Prozess automatisiert und dadurch den schwierigen Prozess vereinfachen soll. Des Weiteren wurde recherchiert, welche Richtlinien zum Schutz des Netzwerkes erforderlich sind und mit Firewalls umgesetzt werden können. Die Implementierung der Richtlinien soll hier als Code erfolgen und es einfach machen, diese Richtlinien automatisch durchzusetzen. Mithilfe dieser als Code implementierten Richtlinien sollen Anträge zur Freischaltung von Firewallregeln geprüft und validiert werden. Wurde der Antrag zur Freischaltung einer Firewallregel erfolgreich validiert, soll die Firewallregel automatisch implementiert werden. Durch diese und weitere Automatisierungen soll die menschliche Interaktion möglichst reduziert werden. Dadurch soll Zeit gespart werden und der Prozess zur Freischaltung einer Firewallregel effizienter durchgeführt werden können. Dafür wurde ein Programm implementiert, welches als Studie dienen und ein Machbarkeitsbeweis darstellen soll.
Immer komplexer werdende Prozesse in der Geschäftswelt erfordern eine fortschreitende Digitalisierung und Automatisierung. Zusätzlich stellen Gesetze weitere Dokumentationsvorschriften, die zu noch mehr Aufwand führen. Diesen wachsenden Anforderungen kann häufig nur mit wachsender Digitalisierung und somit Automatisierung begegnet werden. In dieser Bachelor-Thesis werden die Möglichkeiten zur Automatisierung von Verwaltungsprozessen analysiert und ein Programm zur digitalen Geräteverwaltung erstellt. Es wird auf Normen zur Software-Entwicklung und -Validierung eingegangen, die dann in die Entwicklung einbezogen werden. Anhand der Verwaltungssoftware werden die einzelnen Entwicklungsphasen beschrieben. Die erstellte Software vereinfacht also nicht nur den Verwaltungsaufwand, sondern folgt auch noch einem gesetzlich vorgegebenen Entwicklungsprozess.
Diese Arbeit beschäftigt sich mit der Erstellung eines Leitfadens für die Prüfung der Daten- und Cybersicherheitsrisiken für Medizinprodukte. Es werden die rechtlichen Grundlagen der Bewertung und die zugehörigen Empfehlungen dargestellt. Hierzu werden Empfehlungen aus Deutschland, der EU und der USA betrachtet und vergleichen. Die Umsetzung der Prüfung der Daten- und Cybersicherheitsrisiken wird mit Hilfe eines Beispiels erläutert und in der Folge daraus der zur Konformitätsprüfung wünschenswerte Umfang einer Dokumentation ermittelt. Für die Prüfung der technischen Angaben zur Risikobehandlung für Medizinprodukte, entsprechend der Empfehlungen des Bundesamtes für Sicherheit in der Informationstechnik, wurde zudem eine Einteilung in Schwierigkeitsgrade der Beurteilung vorgenommen.
In dieser Arbeit wird untersucht ob das in 2017 veröffentlichte Tool Unity Timeline als Teil der Unity Engine verwendet werden kann um den Inszenieraufwand von Cutscenes in der KING Art GmbH zu verringern. Dafür werden die Funktionsweisen beider Tools untersucht und daraus abgeleitet, inwiefern Unity Timeline erweitert werden muss um reibungslos mit kAPE zu interagieren. Anschließend werden die notwendigen Erweiterungen konzeptioniert und implementiert. Darauffolgend wird ein Workflow ermittelt, der beschreibt wie Unity Timeline zusammen mit kAPE in der Firma eingesetzt werden kann. Dieser Workflow wird daraufhin an einer Cutscene aus einem Projekt der KING Art GmbH getestet und mit dem Zustand der Cutsceneerstellung vor Anfertigung der Arbeit verglichen.
Die Modellierung einer Tathergang-Simulation kann wichtige Hinweise und Ergebnisse zum Tatgeschehen liefern. Die gegenwärtige Technik befindet sich immer noch in der Entwicklungsphase. In dieser Arbeit wurde geprüft, ob das Game Engine Programm Unity für die Nutzung von Tathergang-Simulationen, basierend auf Menschmodellen, geeignet ist. Dafür wurde ein Fallbeispiel hinzugezogen, um mit dessen Hilfe eine Ragdoll in verschiedenen Simulationsszenarien testen zu können. Die modellierte Ragdoll wurde im Hinblick auf die Anpassungsfähigkeit an individuelle Menschmodelle getestet. Außerdem fand eine Berechnung des Impulses und der daraus resultierenden Geschwindigkeiten statt, die während der Simulationen entstanden sind.
In dieser Arbeit wird der Bootvorgang der i.MX RT117x-Prozessorfamilie sowie die Interprozessorkommunikation und -synchronisation zwischen den beiden Prozessoren dargestellt. Auf dieser Basis wird ein Beispielprogrammm, welches das Betriebssystem Zephyr einsetzt und auf dem Cortex-M7 läuft, erstellt. Dieses Programm soll mit einem Programm, welches in einer Baremetal-Umgebung eingesetzt wird, kommunizieren.
Die immer größer werdenden virtuellen Welten von Computerspielen mit spannendem und glaubhaftem Inhalt zu füllen, ohne die Entwicklungszeit enorm in die Höhe zu treiben, ist eine der großen Herausforderungen für Spielentwickler heutzutage. Eine Möglichkeit dieses Problem anzugehen ist der Einsatz computergestützter Generierungsalgorithmen um manuellen Aufwand zu verringern. Die vorliegende Arbeit befasst sich mit der Umsetzung dreier Data-To-Text-Ansätze zum Zweck der automatischen Generierung von Questtexten aus einer Datenstruktur in der Spieleentwicklungsumgebung Unity. Die entstehenden Implementierungen werden im Anschluss evaluiert auf Eignung für den Anwendungsfall. Folgende Methoden zur Realisierung der Texte werden angewandt: Templating, Templating mit Template-Generierung aus einer kontextfreien Grammatik, sowie die Oberflächenrealisierungsbibliothek SimpleNLG
In dieser Arbeit werden acht Arten von Belohnungssysteme in Mobile Games auf deren Einfluss auf das Verhalten der Spieler und den daraus resultierenden Wiederspielwert eines Spiels untersucht. Zwei dieser Systeme werden für einen Praxistest ausgewählt und detailliert betrachtet. Dabei handelt es sich um das Punktestand System und das Level System. Die Konzeption der Systeme ist um- fangreich beschrieben und die Implementation ist anhand von relevanten Beispielen oder Grafiken aus der Spiele-Engine veranschaulicht. Diese Belohnungssysteme werden innerhalb eines sonst identischen Spiels separat integriert und in einem AB Test getestet. Für die Auswertung des Praxis- tests werden während der Testphase diverse Spieldaten der Spieler erhoben und im Anschluss an den Test wurde von jedem Nutzern ein Fragebogen beantwortet. Auf diese Weise werden objektive Spieldaten sowie subjektive wahrgenommene Faktoren des Spielverhaltens erfasst und konnten in der Auswertung miteinander verknüpft werden. Die dabei entstandenen Ergebnisse zeigen, dass beide Belohnungssysteme die Spieler zum spielen motiviert haben. Jedoch hat das Punktestand System einen höheren Wiederspielwert erzielen können, da hierbei die intrinsische Motivation der Spieler mittels direkter Beeinflussbarkeit der verwendeten Verstärkung angesprochen wird. Außer- dem haben die Tester innerhalb des Punktestand Systems im Median eine größere Reichweite erspielen können. Daraus lässt sich schlussfolgern, dass sie durch das Erhalten beziehungsweise Ausbleiben von Belohnungen dazu motiviert wurden das Spiel stetig weiter spielen zu wollen. Daher hat sich dieses Belohnugnssystem als das für das im Praxisbeispiel verwendete Spiel optimale Be- lohnungssystem herausgestellt. Der subjektiv vom Spieler empfundene Spaßfaktor war bei beiden Belohnungssystemen gleich gut. Das Ergebnis der durchgeführten Forschung besagt, dass durch das Belohnungssystem das Spielverhalten und daraus resultierend der Wiederspielwert eines Spiels sowohl positiv als auch negativ beeinflusst werden kann. Die Art der Belohnung muss in Abhän- gigkeit von der im Gamedesign im Vordergrund stehenden Tätigkeit gewählt werden. Zielen das Belohnungssystem und die Hauptaktion des Spiels auf die gleiche Handlung ab, so werden Spieler intrinsisch dazu motiviert diese vermehrt ausführen zu wollen. Die optimale Art der Belohnung muss daher die individuellen Charakteristika eines Spiels unterstützen.
Innerhalb dieser Arbeit wurde geprüft, ob die Sensorgröße einer digitalen Kamera einen Einfluss auf Umfang und Qualität von photogrammetrisch erstellter 3D Modelle besitzt. Konkret wurden die Kameras Lumix GC91-M und Nikon D7500 für diese Arbeit verwendet. Dafür wurden zwei verschiedene Versuchsaufbauten entworfen. Im ersten Versuchsaufbau wurde geprüft, wie zuverlässig die Wiedergabe von dreidimensionalen Objekten auf großflächigen Strukturen ist. Im zweiten Versuchsaufbau wurde die Wiedergabe von komplexen dreidimensionalen Strukturen überprüft. Mit der Software "Agisoft Metashape" wurden automatisiert 3D Modelle erstellt. Im Rahmen dieser Arbeit konnte gezeigt werden, dass die Sensorgröße einen geringen Einfluss auf die Modelle besitzt. Dieser zeigt sich vor allem bei geringen Abständen (einen Meter) zu dem fotografierten Objekt.
Nutzung von CYTOF zur Detektion von ILC-Subpopulationen in der Haut von Patienten mit Psoriasis
(2022)
Psoriasis ist eine durch exogene und endogene Stimuli auslösbare, T-Zellen vermittelte Autoimmunerkrankung, die gekennzeichnet ist durch Hyperproliferation und veränderten Differenzierung von Keratinozyten in der Epidermis. Bei den Betroffenen bilden sich auf der Haut scharf begrenzte, rote oder mit weißen Schuppen bedeckte Papeln oder Plaques.
Man fand in den letzten Jahren heraus, dass eine neu entdeckte Lymphozyten Population, die sogenannten angeborenen lymphatischen Zellen (innate lymphoid cells (ILC)), einen Einfluss auf die Pathogenese der Erkrankung haben.
ILCs lassen sich anhand ihrer Oberflächenmarker in drei Gruppen einteilen. Besonders die Gruppe 3 der ILCs (ILC3) wurde in der Haut von Psoriasis-Patienten angereichert gefunden. Zum jetzigen Zeitpunkt ist jedoch nicht vollständig geklärt wie die ILCs vom Blut in das Gewebe migrieren.
Um ein besseres Verständnis über das Migrationsverhalten von ILCs bei Psoriasis zu erlangen, ist das Ziel der Arbeit, neue Subpopulation von ILCs zu identifizieren, die sowohl im Blut als auch auf dem Hautgewebe zu finden sind. Für die Etablierung dieser Methode wurden zuerst die im Blut von Psoriasis-Patienten und gesunden Patienten befindlichen ILCs durch Durchflusszytometrie von anderen Immunzellen getrennt. Mittels t-SNE-Algorithmus wurde anschließend innerhalb der ILC-Population nach Subpopulationen gesucht. Anhand von Oberflächenmarkern und fünf Chemokinrezeptoren, die unter anderem an der Migration beteiligt sind, konnten verschiedene ILC-Subpopulation identifiziert werden.
Um zu überprüfen, ob diese ILC-Subpopulation vom Blut ins Gewebe migrieren, sollten die ILC-Subpopulationen vom Blut anhand des Antikörperpanels der Durchflusszytometrie mittels „Imaging Mass Cytometry“ (IMC) im Gewebe von Psoriasis-Patienten identifiziert und lokalisiert werden. Vorteil von IMC gegenüber herkömmlicher Immunhistologie, ist die Nutzung von bis zu 40 parallel nutzbaren Markern im Gewebe. Dies ermöglicht die Suche nach ILC-Subpopulation durch die gleichzeitige Identifizierung von ILCs anhand von Oberflächenmarkern, als auch ihrer Chemokinrezeptoren.
In dieser Arbeit, konnte ein Antikörperpanel mit 30 Markern auf einem Gewebeschnitt untersucht und mittels der Programmiersprache R eine Analyse erstellt werden, die es erlaubt ILCs auf dem untersuchten Gewebe sichtbar zu machen, sowie die ILCs hinsichtlich der Expression ihrer Chemokinrezeptoren zu untersuchen.
Blockchain-Governance wird oft mit der Führung von Unternehmen oder von Nationalstaaten verglichen, obwohl diese sich selbst eher als Decentralized Autonomous Organizations (DAOs) und damit als reine Software verorten. In dieser Arbeit wird die Polkadot-Governance in jener Ebene, in der Menschen über Polkadot Entscheidungen treffen, dargestellt, um sie dann mit rechtlichen Konzepten, die den Rahmen für die Entscheidungsfindung in Unternehmen und Staaten bilden, sowie mit den rechtlichen Grundlagen für die Entscheidungsfindung einer DAO zu vergleichen.
Die Arbeit soll ergründen, wie der Entwicklungsablauf automatisiert werden kann und welche Ressourcen- und Zeiteinsparungen aus dieser Automatisierung folgen. Dabei gilt es zu evaluieren, wie ein geeigneter Entwicklungsprozess aussieht und welche Tools genutzt werden können, um diese Einsparungen zu realisieren. Im besten Fall soll die Anwendung ohne manuellen Aufwand nach jeder Änderung auf Qualität und Sicherheit geprüft und danach direkt ausgerollt werden. Dadurch soll es ermöglicht werden, einer Änderung die daraus resultierenden Fehler eindeutig zuzuordnen. Des Weiteren soll eine Lösung gefunden werden, die Fehler auf Grund von unterschiedlichen Entwicklungsumgebungen beheben kann. Somit soll ebenfalls Entwicklungszeit gewonnen
werden.
Hinsichtlich des verändernden Stoffwechsels stellen Kiesel- und Grünalgen eine interessante und gut nutzbare, wenn auch lose und schwer definierbare Gruppierung innerhalb der biologischen Systematik dar: Ihr Potenzial, die Eigenschaften von Pflanzen (dank Photosynthese) und Mikroorganismen (in ihrer jeweiligen Größe und ihrem bedingt heterotrophen Stoffwechsel) zu kombinieren, ist bisher unübertroffen und eröffnet Möglichkeiten u. a. für die Bereiche der Abwasserbehandlung und die Kultivierung von Mikroalgen in Abwassermedien. Obwohl ihre Eignung für wirtschaftliche Zwecke ihr volles Potenzial noch nicht vollständig erreicht hat, scheint der Weg dorthin sicherlich diese Richtung einzuschlagen – mit der Biotechnologie als ein sich ständig weiterentwickelndes Fachgebiet, ist die Verwendung von Algen
für bestimmte Zwecke an die bisherigen Erkenntnisse und den daraus resultierenden Möglichkeiten gebunden. In diesem Versuch wurden insgesamt vier Mikroalgen, drei Grünalgen (C. vulgaris, A. obliquus und C. reinhardtii) und eine Kieselalge (N. pelliculosa), auf ihr Wachstumsverhalten in unterschiedlich konzentrierten Abwassermedien, von 20 % bis 100 % in 20 %-Schritten, getestet. In Bezug auf die erzielten Ergebnisse scheint der vielversprechendste Kandidat für diese Zwecke C. reinhardtii zu sein, welcher das schnellste Wachstum innerhalb der Inkubationszeit von 3 Tagen erreicht hatte und die meisten Nährstoffe aus dem Abwassermedium entfernte. In geringeren Abwasserkonzentrationen kam es stattdessen zum starken Wachstum von A. obliquus, womit dieser Organismus eine Alternative zu geringer belasteten Medien (hinsichtlich der Nährstoffe, als auch der Keimbelastung) darstellt. Außerdem wurden je 5 L A. obliquus und C. vulgaris Inokula in einem größeren Aquarium mit ca. 50 L Abwasser inkubiert unter strengeren Parameterbedingungen und höheren
Kontaminationsrisiko. Dennoch konnte auch hier innerhalb von fünf Tagen ein Abbau von ca. 99,40 % des Phosphats auf 0,055 mg/L erreicht werden, innerhalb einer Woche bzw. sieben Tagen von 99,92 % auf 0,007 mg/L ortho-Phosphat. Ob diese Organismen auch weiterhin eine wichtige Rolle in zukünftigen Technologien für die Abwasserreinigung spielen, hängt von weiteren Studien auf diesem Gebiet ab sowie neuen Innovationen bezüglich der wirtschaftlichen Nutzbarkeit für Unternehmen, welche durch Investitionen den weiteren Ausbau sowie die Forschung im Gebiet der
Algennutzung fördern.