Refine
Document Type
- Bachelor Thesis (703)
- Master's Thesis (180)
- Diploma Thesis (56)
Year of publication
Keywords
- Computerforensik (56)
- Softwareentwicklung (52)
- Computersicherheit (48)
- Videospiel (45)
- Maschinelles Lernen (44)
- Blockchain (25)
- Computerspiel (23)
- Datensicherung (21)
- Virtuelle Realität (18)
- Programmierung (17)
- Algorithmus (16)
- Forensik (14)
- Künstliche Intelligenz (14)
- Android <Systemplattform> (13)
- Fotogrammetrie (13)
- Daktyloskopie (12)
- Neuronales Netz (12)
- Altersbestimmung (11)
- Gerichtliche Wissenschaften (10)
- Vektorquantisierung (10)
- Blut (9)
- Computerkriminalität (9)
- Kryptologie (9)
- Virtuelle Währung (9)
- App <Programm> (8)
- Bildverarbeitung (8)
- Digitalisierung (8)
- E-Learning (8)
- Molekularbiologie (8)
- Software (8)
- Biometrie (7)
- Biotechnologie (7)
- Cloud Computing (7)
- DNS (7)
- Deep learning (7)
- Malware (7)
- Mobiles Endgerät (7)
- Social Media (7)
- Visuelle Wahrnehmung (7)
- Bioinformatik (6)
- Dreidimensionale Rekonstruktion (6)
- Dreidimensionales Modell (6)
- Graphentheorie (6)
- Internet der Dinge (6)
- Schnittstelle (6)
- CAN-Bus (5)
- Datenbank (5)
- Datenschutz (5)
- Erweiterte Realität <Informatik> (5)
- Genetischer Fingerabdruck (5)
- Kinderpornografie (5)
- Lernendes System (5)
- Projektmanagement (5)
- Rechnernetz (5)
- Rechtsmedizin (5)
- Rekonstruktion (5)
- Soziales Netzwerk (5)
- Spiel-Engine (5)
- Tatrekonstruktion (5)
- Ultraviolettspektroskopie (5)
- Vektor (5)
- Visualisierung (5)
- Benutzerfreundlichkeit (4)
- Bildgebendes Verfahren (4)
- Bitcoin (4)
- CRISPR/Cas-Methode (4)
- Cluster-Analyse (4)
- Cytologie (4)
- Daktylogramm (4)
- Datenbanksystem (4)
- Deutschland (4)
- Gerichtliche Entomologie (4)
- Geschlechtsbestimmung (4)
- Gesichtserkennung (4)
- Instant Messaging (4)
- Internet (4)
- Lernsoftware (4)
- Objekterkennung (4)
- Tatort (4)
- Zeitreihe (4)
- Anwendungssoftware (3)
- Autonomes Fahrzeug (3)
- Beweismittel (3)
- Bildmaterial (3)
- Biochemie (3)
- Biogasgewinnung (3)
- Biomarker (3)
- Blutspur (3)
- Blutuntersuchung (3)
- DNA Barcoding (3)
- Datenmanagement (3)
- Datenspeicherung (3)
- Dokumentenverwaltungssystem (3)
- Erzähltechnik (3)
- Gebäudeleittechnik (3)
- Gerichtliche Anthropologie (3)
- Hassrede (3)
- Identität (3)
- Identitätsverwaltung (3)
- Infrastruktur (3)
- Internetkriminalität (3)
- Klein- und Mittelbetrieb (3)
- Kläranlage (3)
- Kollagen (3)
- Kriminalität (3)
- Kryptorchismus (3)
- Manipulation (3)
- Massively Multiplayer Online Role-Playing Game (3)
- Mikrocontroller (3)
- Mobilfunk (3)
- Narrativität (3)
- Netzwerktopologie (3)
- Online-Durchsuchung (3)
- Passwort (3)
- Proteine (3)
- RNS (3)
- Rollenspiel (3)
- SARS-CoV-2 (3)
- Schimmelpilze (3)
- Sequenzanalyse <Chemie> (3)
- Simulation (3)
- Smartphone (3)
- Softwaretest (3)
- Spurenauswertung (3)
- Spurensicherung (3)
- Stammzelle (3)
- Textverarbeitung (3)
- Video (3)
- Wahrnehmung (3)
- Webanwendung (3)
- Zelle (3)
- 3D-Technologie (2)
- Abwasser (2)
- Active Directory (2)
- Animationsfilm (2)
- Anthropologie (2)
- Antikörper (2)
- Arbeitsablauf (2)
- Audiodatei (2)
- Automatische Identifikation (2)
- Automatische Spracherkennung (2)
- Biogas (2)
- Biologischer Abbau (2)
- Biomedizin (2)
- Browser (2)
- COVID-19 (2)
- Car-to-Car-Kommunikation (2)
- Client-Server-Konzept (2)
- Computeranimation (2)
- Computergrafik (2)
- Computersimulation (2)
- Cyberattacke (2)
- Daten (2)
- Datenanalyse (2)
- Datenerfassung (2)
- Datenübertragung (2)
- Design (2)
- Dezellularisierung (2)
- Docker <Software> (2)
- Drahtloses lokales Netz (2)
- Durchflusscytometrie (2)
- Eingebettetes System (2)
- Elektronischer Fingerabdruck (2)
- Enterprise-Resource-Planning (2)
- Extraktion (2)
- Extrazelluläre Matrix (2)
- Fahrerassistenzsystem (2)
- Filmanalyse (2)
- Firewall (2)
- Fitness (2)
- Fotorealismus (2)
- Futtermittel (2)
- Gamification (2)
- Genanalyse (2)
- Geschäftsmodell (2)
- Gesichtsschädel (2)
- Graph (2)
- Hand (2)
- Heuristik (2)
- Hochschule (2)
- Immunohistologie (2)
- Immunsystem (2)
- Java <Programmiersprache> (2)
- Knochen (2)
- Kommunikationsprotokoll (2)
- Kommunikationssystem (2)
- Kraftfahrzeug (2)
- Krankenunterlagen (2)
- Krebs <Medizin> (2)
- Kriminalistik (2)
- Kriminaltechnik (2)
- Kriminologie (2)
- Kryokonservierung (2)
- Kryptosystem (2)
- Kunst (2)
- LINUX (2)
- Labormedizin (2)
- Legionella (2)
- Lernspiel (2)
- LoRaWAN (2)
- Lunge (2)
- Maschinelles Sehen (2)
- Medizin (2)
- Mikrofinanzierung (2)
- Mikroorganismus (2)
- Motivationspsychologie (2)
- Museum (2)
- Nanopartikel (2)
- Netzhaut (2)
- Online-Shop (2)
- Optische Kohärenztomografie (2)
- Organisiertes Verbrechen (2)
- Pathogener Mikroorganismus (2)
- Penetrationstest (2)
- Pflanzen (2)
- Phishing (2)
- Proteinfaltung (2)
- Pudel (2)
- RFID (2)
- Realistische Computergrafik (2)
- Recycling (2)
- Schuppenflechte (2)
- Semantik (2)
- Serious game (2)
- Server (2)
- Sicherungstechnik (2)
- Skelettfund (2)
- Software-defined networking (2)
- Softwarearchitektur (2)
- Speicherprogrammierte Steuerung (2)
- Spieler (2)
- Spielverhalten (2)
- Steuergerät (2)
- Therapie (2)
- Tissue Engineering (2)
- Trojanisches Pferd <Informatik> (2)
- Tumor (2)
- Unity <Spiel-Engine> (2)
- Unternehmen (2)
- Videospiel , Virtuelle Realität (2)
- Virtualisierung (2)
- Virtuelles Laboratorium (2)
- Wasserstofferzeugung (2)
- Web Services (2)
- Webentwicklung (2)
- Weichteile (2)
- Whatsapp (2)
- Windows 10 (2)
- Wissensvermittlung (2)
- World Wide Web (2)
- Zeitreise (2)
- Zellkultur (2)
- Zugang (2)
- iOS (2)
- Ökosystem (2)
- 5G (1)
- Abfüllverfahren (1)
- Abwasserableitung (1)
- Abwasseraufbereitung (1)
- Abwasserreinigung (1)
- Abwasserreinigung , Cerdioxid , Nanopartikel (1)
- Achterbahn (1)
- Ackerbohne (1)
- Ackerschmalwand (1)
- Adventivwurzel , Petunie , Steckling , Strigolactone (1)
- Alkoholkonsum (1)
- Altpapier (1)
- Amazon Alexa (1)
- Ammoniumverbindungen (1)
- Amyloid (1)
- Anatomie (1)
- Android <Systemplattform> , Malware (1)
- Angriffsvektor (1)
- Animationsfilm , Filmanalyse (1)
- Antenne (1)
- Anthropometrie (1)
- Antigen (1)
- Antigenrezeptor (1)
- Antikörper , Natürliche Killerzelle , Streptavidin , Tumorantigen (1)
- Anwendungssystem (1)
- Anämie (1)
- App Inventor (1)
- Arbeitsgestaltung (1)
- Arbeitsverhalten (1)
- Arbeitszeiterfassung (1)
- Archetypus (1)
- Architektur (1)
- Archivierung (1)
- Archivsystem (1)
- Arthrose (1)
- Arzneimittel (1)
- Assembly (1)
- Auge (1)
- Augenfolgebewegung (1)
- Augenkrankheit (1)
- Authentifikation (1)
- Automation (1)
- Autonomer Agent (1)
- Außerirdische Intelligenz (1)
- Bakterielle Infektion (1)
- Bakterien (1)
- Bangladesch (1)
- Bank (1)
- Barrierefreiheit (1)
- Bedrohungsvorstellung (1)
- Bekämpfung (1)
- Benchmarking (1)
- Benutzerverhalten (1)
- Bergbau (1)
- Berichterstattung (1)
- Betriebssystem (1)
- Betrug (1)
- Betäubungsmitteldelikt (1)
- Bewegtes Bild , App <Programm> (1)
- Bewegung (1)
- Bewegungsapparat (1)
- Biene <Gattung> (1)
- Bildanalyse , Fließgewässer (1)
- Bilderkennung (1)
- Bildnismalerei (1)
- Bildsegmentierung (1)
- Biochemische Analyse (1)
- Biodiversität (1)
- Bioelektrochemie (1)
- Biofilm (1)
- Biofouling , Geothermik , Biotechnologie (1)
- Biogasanlage , Prozessanalyse (1)
- Biogasgewinnung , Biomasse (1)
- Biogasgewinnung , Nuttalls Wasserpest (1)
- Biogastechnik (1)
- Biokraftstoff (1)
- Biologische Sicherheit (1)
- Biomarker , Immunassay (1)
- Biomarker , Krebs <Medizin> (1)
- Biomasseproduktion (1)
- Biotechnolgie (1)
- Biotin (1)
- Bioverfügbarkeit (1)
- Bitmap-Grafik (1)
- Blaue Fleischfliege (1)
- Blender <Programm> (1)
- Blutalkoholbestimmung (1)
- Blutuntersuchung , Notfallmedizin , Laborparameter (1)
- Bodenbearbeitung (1)
- Bodenbiologie (1)
- Bodenbiologie , Bodenbearbeitung , Kalium , Ionenselektive Elektrode (1)
- Bodennutzung (1)
- Bodenorganismus (1)
- Brauchwasser (1)
- Brücke (1)
- Business Intelligence (1)
- C <Programmiersprache> (1)
- C++ (1)
- CAN-Bus , Datenlogger (1)
- CRIPR/Cas-Methode (1)
- Calciummangel (1)
- Campbell, Joseph (1)
- Candida albicans , Infektion (1)
- Cannabinoide (1)
- Cellulasen (1)
- Cellulose (1)
- Charakterdesign (1)
- ChatGPT (1)
- Chatbot (1)
- Chemikalie (1)
- Chemische Biologie (1)
- Chemisches Labor (1)
- Chemokine (1)
- Chemotherapeutikum (1)
- Chiffrierung (1)
- Chipkarte , Betriebssystem , Authentifikation (1)
- Chipkarte , Nahfeldkommunikation (1)
- Chromatographie (1)
- Client (1)
- Cluster , Cluster-Analyse (1)
- Cluster <Datenanalyse> (1)
- Codegenerierung (1)
- Codierungstheorie (1)
- Computergrafik , Dreidimensionale Computergrafik (1)
- Computerlinguistik (1)
- Computerspiel , Bildung , Computerunterstütztes Lernen (1)
- Computerspiel , Erzähltechnik (1)
- Computerspiel , Fotogrammetrie (1)
- Computerspiel , Rollenspiel , Abenteuerspiel , Virtuelle Realität (1)
- Computerspiel , Softwareentwicklung , Verkaufstechnik (1)
- Computerspiel , Spielkonsole , Softwareentwicklung (1)
- Computerspielindustrie (1)
- Computertomografie (1)
- Computerunterstütztes Lernen (1)
- Computerunterstütztes Verfahren (1)
- Concept-art (1)
- Container (1)
- Container <Informatik> (1)
- Content Management (1)
- Convolutional Neural Network (1)
- Corporate Design (1)
- Corporate Network (1)
- Cyanide (1)
- Cytotoxizität (1)
- DNS , Geschlechtsbestimmung (1)
- DNS-Methyltransferase (1)
- DNS-Origami (1)
- Darknet (1)
- Darstellung (1)
- Data Mining (1)
- Data-Warehouse-Konzept (1)
- Dateiformat (1)
- Datenaustausch , iOS , MacOS , Framework <Informatik> (1)
- Datenbank , Web-Anwendung (1)
- Datenbanksystem , Softwareentwicklung (1)
- Datenfluss (1)
- Datenintegration (1)
- Datenlogger (1)
- Datenschutz-Grundverordnung , Datenschutz (1)
- Datenverknüpfung (1)
- Datenverwaltung (1)
- Debugging (1)
- Deepfake (1)
- Denkspiel (1)
- Dermatomykose (1)
- Desinfektion (1)
- Desinformation (1)
- Desktop (1)
- Desktop-Publishing (1)
- Diagnostik (1)
- Diclofenac (1)
- Digitale Daten (1)
- Digitale Signalverarbeitung (1)
- Digitalkamera (1)
- Dilemma (1)
- Dimethoat (1)
- Diskrete Mathematik (1)
- Diskreter Logarithmus (1)
- Distraktion (1)
- Distributionspolitik (1)
- Dokumentverarbeitung (1)
- Drahtloses vermaschtes Netz (1)
- Dreidimensionale Computergrafik (1)
- Dunkelziffer (1)
- Düngemittel (1)
- Dürrestress (1)
- E-Learning , Lernspiel (1)
- E-Scooter (1)
- Echtzeitbildverarbeitung (1)
- Echtzeitsimulation (1)
- Echtzeitsystem (1)
- Edge computing (1)
- Eigendynamik (1)
- Eigenwertproblem (1)
- Eindringerkennung (1)
- Einzelarbeitsplatz (1)
- Electronic Commerce (1)
- Elektrizitätserzeugung (1)
- Elektrizitätsversorgungsnetz (1)
- Elektrokardiografie (1)
- Elektronischer Zahlungsverkehr (1)
- Elektrostimulation , Stammzelle , Knochenbildung (1)
- Emotionales Verhalten (1)
- Endokrin wirksamer Stoff (1)
- Endoskop (1)
- Energieversorgung (1)
- Entwicklung (1)
- Enzymatische Analyse , Denguevirus (1)
- Enzyme-linked immunosorbent assay , Maus , Norovirus (1)
- Epidemiologie (1)
- Epigenetik (1)
- Epitop (1)
- Erfolgsfaktor (1)
- Erpressung (1)
- Erzaufbereitung (1)
- Ethereum (1)
- Event-Marketing (1)
- FT-IR-Spektroskopie (1)
- Facebook (1)
- Fehleranalyse (1)
- Feldbus (1)
- Fernsehserie (1)
- Fertigungsanlage (1)
- Festplatte (1)
- Feuchtgebiet (1)
- Filmarchitektur (1)
- Filmproduktion , Spezialeffekt , Computeranimation (1)
- Finanztechnologie (1)
- Finnland (1)
- Firmware (1)
- Flammenspektroskopie (1)
- Fledermäuse (1)
- FlexRay (1)
- Fließgewässer (1)
- Flugbahnverfolgung (1)
- Fluoreszenz-Resonanz-Energie-Transfer (1)
- Fluoreszenzmarkierung (1)
- Fluoreszenzmikroskopie (1)
- Fluoreszenzproteine (1)
- Fluoreszenzspektroskopie (1)
- Flüssigkeit (1)
- Flüssigkristall , Physikalische Chemie , Phasenschieber (1)
- Formula Student Germany (1)
- Forschung (1)
- Fortpflanzung (1)
- Fotografie (1)
- Frame <Journalismus> (1)
- Francisella tularensis , Genetische Variabilität (1)
- Frequenz (1)
- Front-End <Software> , World Wide Web , React <Framework, Informatik> (1)
- Frostresistenz (1)
- Funknetz (1)
- Funkübertragung (1)
- Fälschung (1)
- GPS , Koordinatenmessgerät (1)
- GSM-Standard (1)
- Gamification , Gesundheitsverhalten (1)
- Gamification , Verhaltensmodifikation (1)
- Gastrointestinale Krankheit , Pathophysiologie (1)
- Gebäude (1)
- Gefahrenabwehr (1)
- Gefühl (1)
- Gegensatz (1)
- Gelatine (1)
- Geldwäsche (1)
- Gelände (1)
- Generative Adversarial Network (1)
- Genetik (1)
- Genexpression (1)
- Genom (1)
- Gentechnologie (1)
- Gerichtliche Zahnmedizin (1)
- Gesellschaft (1)
- Gesundheitsinformationssystem (1)
- Gesundheitswesen (1)
- Getreide (1)
- Gewalttätigkeit (1)
- Gewöhnung (1)
- Glucosinolate , Kreuzblütler , Proteine , Hydrolysat (1)
- Golderz (1)
- Governance (1)
- Graphische Benutzeroberfläche (1)
- Grassilage (1)
- Grid Computing (1)
- Großfamilie (1)
- Gyrasehemmer (1)
- Haaranalyse (1)
- Halbleiter (1)
- Handy (1)
- Hardware (1)
- Hash-Algorithmus (1)
- Hauptspeicher (1)
- Hausinternes Netz (1)
- Hautleiste (1)
- Heros (1)
- Herpes-simplex-Virus (1)
- Herzmuskelzelle , Peroxisomen-Proliferator-aktivierter Rezeptor (1)
- Hochschulbildung (1)
- Hochschuldidaktik (1)
- Hochschule Mittweida (1)
- Hochschule Mittweida <Mittweida> (1)
- Hochschulunterricht (1)
- Holografie (1)
- Honeypot (1)
- Honigproduktion (1)
- Horrorfilm (1)
- Hospitalismus <Hygiene> (1)
- Humanitäre Hilfe (1)
- Hydroxyprolin (1)
- Hyperkalzämie (1)
- Hyperthermie (1)
- Hyponatriämie (1)
- Hämatoskopie (1)
- Häusliche Gewalt (1)
- Hüftgelenk (1)
- IP (1)
- Imidacloprid , Toxizität , Regenwürmer <Familie> (1)
- Immobilisierung (1)
- Immunologische Diagnostik (1)
- Immuntherapie (1)
- Implementation (1)
- Industrie 4.0 (1)
- Influenza-A-Virus (1)
- Information Extraction (1)
- Informationsfilterung , Kollaborative Filterung (1)
- Informationsmanagement , Servicegrad , IT infrastructure library (1)
- Informationssystem , Dokumentation (1)
- Informationstechnik (1)
- Informationsvermittlung (1)
- Input-Output-Analyse (1)
- Insektizid (1)
- Instand Messaging (1)
- Integration (1)
- Integrierte Schaltung (1)
- Interaktion (1)
- Interaktive Medien (1)
- Interaktives Video (1)
- Interdisziplinarität (1)
- Ionenselektive Elektrode (1)
- Ischämischer cerebraler Anfall (1)
- JPEG (1)
- JavaScript , Framework <Informatik> (1)
- Kalibrieren <Messtechnik> (1)
- Kalium (1)
- Kamera , Videospiel , Softwareentwicklung (1)
- Kampfszene (1)
- Kapitalanlagebetrug (1)
- Kapitaltransfer (1)
- Katalytische Reduktion , Visualisierung , c (1)
- Kennzeichen (1)
- Keratine , Extraktion , Hydrolysat (1)
- Kernel <Informatik> (1)
- Kind (1)
- Klein- und Mittelbetrieb , Prozessmanagement , Enterprise-Resource-Planning (1)
- Klimaänderung (1)
- Kläranlage , Schwefelwasserstoff , Aktivkohle , Abluftreinigung (1)
- Klärschlamm (1)
- Kollagenasen , Fibroblast (1)
- Kommunikation (1)
- Kontrollsystem (1)
- Kontrolltheorie , Stabilität , Steuerungstheorie (1)
- Kopienzahlvariation , Genamplifikation , Polymerase-Kettenreaktion (1)
- Korrosion (1)
- Kraftfahrzeugbau (1)
- Kraftfahrzeugindustrie (1)
- Krankenhaus (1)
- Kreatives Denken (1)
- Kriminalanthropologie (1)
- Kriminalbiologie (1)
- Kriminalitätstheorie (1)
- Kriminalprognose (1)
- Kriminelle Vereinigung (1)
- Krisenmanagement (1)
- Kryptoanalyse (1)
- Kugelspalt (1)
- Kulturpflanzen (1)
- Kundenbindung (1)
- Kunststoff (1)
- LINUX , Systemprogrammierung , Malware (1)
- Laboratorium (1)
- Landschaft (1)
- Landwirtschaft (1)
- Laserscanner (1)
- Lastkraftwagen (1)
- Laständerung (1)
- Lebensmittelhygiene (1)
- Lebensmittelmikrobiologie (1)
- Lebensmitteltechnologie (1)
- Lebensmittelverarbeitung (1)
- Lebensraum (1)
- Leder , Schimmelpilze , Test (1)
- Legasthenie (1)
- Legionella , Kühlwasser , Abwasser , Nachweis (1)
- Lehrveranstaltung (1)
- Leichte Sprache (1)
- Leitsystem (1)
- Leptospermum scoparium (1)
- Lernen (1)
- Levofloxacin (1)
- Linearer Code (1)
- Linux (1)
- Lipide (1)
- Lippe (1)
- Lithium (1)
- Logdatei (1)
- Long Term Evolution (1)
- Lucilia sericata (1)
- Lungenentzündung (1)
- Lungenkrankheit (1)
- Lymphom (1)
- Lügendetektor (1)
- MATLAB (1)
- Malaria (1)
- Managementinformationssystem (1)
- Manisch-depressive Krankheit (1)
- Marketing (1)
- Marketingstrategie (1)
- Massenmedien (1)
- Mathematisches Modell (1)
- Medienkonsum , Unterricht , Medienpädagogik (1)
- Medienkultur (1)
- Medienpolitik (1)
- Medizinische Dokumentation (1)
- Medizinische Mikrobiologie (1)
- Medizinprodukt (1)
- Medizintechnik (1)
- Mehragentensystem (1)
- Mehrkriterielle Optimierung (1)
- Mehrprozessorsystem (1)
- Meinungsbildung (1)
- Melanom (1)
- Membran (1)
- Mensch (1)
- Mensch-Maschine-Kommunikation (1)
- Messenger-RNS (1)
- Messgerät (1)
- Messung (1)
- Metadaten (1)
- Metallion (1)
- Metastase (1)
- Metrik <Mathematik> (1)
- Mikrobieller Abbau (1)
- Mikrofluidik (1)
- Mikrofotometrie (1)
- Mikroservice (1)
- Mikroservice , Heterogenes Rechnernetz (1)
- Mikroservice , Serviceorientierte Architektur (1)
- Mikroskopie (1)
- Milchleistungsprüfung (1)
- Milchproduktion (1)
- Milchverarbeitung (1)
- Mixed Reality (1)
- Mobile Telekommunikation (1)
- Mobiles Endgerät , Android <Systemplattform> , Computervirus (1)
- Mobiles Endgerät , Smartphone , Android <Systemplattform> , App <Programm> (1)
- Molekulargenetik (1)
- Molkerei (1)
- Moralpsychologie (1)
- Morphometrie (1)
- Motion Capturing (1)
- Motivation (1)
- Multimedia (1)
- Multiplexsystem (1)
- Mundschleimhaut (1)
- Musik (1)
- Musikmarkt (1)
- Muskelzelle (1)
- Myelodysplastisches Syndrom (1)
- NIR-Spektroskopie (1)
- Nachweis (1)
- Nahbereichsfotogrammetrie (1)
- Nanobiotechnologie (1)
- Nanostruktur (1)
- Nanotechnologie (1)
- Naturstein (1)
- Neophyten <Botanik> , Wasserpflanzen , Pflanzeninhaltsstoff (1)
- Netflix Inc. (1)
- Netzgerät (1)
- Netzwerkverwaltung , Monitorüberwachung (1)
- Neue Medien (1)
- Nichtionisierende Strahlung , Plausibilitätsprüfung (1)
- Nichtverbale Kommunikation (1)
- Normung (1)
- Notsignal (1)
- Nucleocapsid (1)
- Numerische Mathematik (1)
- Nutzen (1)
- Nutzpflanzen , BTX-Aromaten , Umweltbelastung (1)
- Nutzwertanalyse (1)
- Nährstoffaufnahme (1)
- ORACLE WebServer , LINUX , Server , Update (1)
- Oberflächenbehandlung , Biomaterial , Phosphate (1)
- Oberflächengewässer (1)
- Oberkiefer (1)
- Objektverwaltung (1)
- On-Board-Diagnose (1)
- Online-Spiel (1)
- Ontologie (1)
- Open Source (1)
- OpenStack (1)
- Opferschutz (1)
- Optimierung (1)
- Optische Spektroskopie (1)
- Optische Täuschung (1)
- Optische Zeichenerkennung (1)
- Optischer Richtfunk (1)
- Orakel <Informatik> (1)
- Oxidation (1)
- PDF <Dateiformat> (1)
- PGP (1)
- Pandemie (1)
- Papierindustrie (1)
- Parken (1)
- Pathogene Bakterien (1)
- Pathogene Bakterien , Medizinische Mikrobiologie , Minimale Hemmkonzentration (1)
- Pathogener Mikroorganismus , Scheidenentzündung , Abstrich <Medizin> , Labormedizin (1)
- Pathogenese (1)
- Patient (1)
- Peer-to-Peer-Netz (1)
- Perfluorverbindungen (1)
- Periphere Stammzellentransplantation (1)
- Pestizid (1)
- Pflanzenschutzmittel (1)
- Phantombild (1)
- Phosphor (1)
- Photodiode , Optoelektronisches Bauelement (1)
- Photorezeptor , Netzhautdegeneration (1)
- Photosynthese (1)
- Phylogenetik , Schlauchpilze , Saccharomycetaceae (1)
- Phänotyp (1)
- Pipette (1)
- Planung (1)
- Politische Kommunikation (1)
- Polizei (1)
- Polyfluorverbindungen (1)
- Polymerase-Kettenreaktion (1)
- Polymere (1)
- Polynom (1)
- Polynom , Graphentheorie (1)
- Polysaccharide (1)
- Praktikum (1)
- Priming (1)
- Privatphäre (1)
- Produkt (1)
- Produktion (1)
- Produktionsprozess (1)
- Programm (1)
- Programmiersprache (1)
- Projektplanung (1)
- Promotor <Genetik> , Rot fluoreszierendes Protein , Acetogene Bakterien (1)
- Prostatakrebs (1)
- Proteasen (1)
- Proteinbiosynthese (1)
- Proteinbiosynthese , Wirkstoff , Nervennetz (1)
- Prozesskette (1)
- Prozessmanagement (1)
- Prozessvisualisierung (1)
- Prunus (1)
- Prävention (1)
- Pupillenreaktion (1)
- Puppet <Software> (1)
- Qualitätsmanagement (1)
- RS-Virus (1)
- Raspberry Pi , Leistungsmessung , Energieverbrauch (1)
- Rauigkeit (1)
- Raumdaten (1)
- Rechnungswesen , Elektronische Buchführung , Softwaresystem (1)
- Rechtsmedizin , Schädel (1)
- Rechtsstellung (1)
- Regenerative Medizin (1)
- Regularisierung (1)
- Reinigung (1)
- Rekombinantes Protein (1)
- Rendering (1)
- Resozialisierung (1)
- Rezeptor (1)
- Rhamnolipide (1)
- Rind (1)
- Risikoanalyse (1)
- Rot-Grün-Blindheit (1)
- Router (1)
- Routing (1)
- Rust <Programmiersprache> (1)
- Rüstzeit (1)
- Satellitenfunk (1)
- Satellitentechnik (1)
- Scanner (1)
- Scanning (1)
- Schadstoffbelastung (1)
- Schaltschrank (1)
- Schimmelpilze , Leder , Oberflächenschaden (1)
- Schlaganfall (1)
- Schlagsahne (1)
- Schlammbehandlung (1)
- Schriftzeichenerkennung (1)
- Schule (1)
- Schussverletzung (1)
- Schutzmaßnahme (1)
- Schwierigkeitsgrad (1)
- Schädel (1)
- Sehne (1)
- Sehnenverletzung (1)
- Selbstständiger (1)
- Selbstwirksamkeit (1)
- Semantic Web (1)
- Semantisches Netz (1)
- Sensor (1)
- Serienfertigung (1)
- Server , LINUX , Patch <Software> (1)
- Sicherheitsanalyse (1)
- Sicherheitstechnik (1)
- Single-page-Webanwendung (1)
- Skelett (1)
- Skelettmuskel (1)
- Smart contract (1)
- Smartwatch (1)
- Smiley (1)
- Smoothed Particle Hydrodynamics (1)
- Social Media , Datenanalyse (1)
- Softwareentwicklung , Eingebettetes System (1)
- Softwareschnittstelle (1)
- Sound (1)
- Soundverarbeitung (1)
- Soziale Software (1)
- Sozialtechnologie (1)
- Spaltströmung (1)
- Speicher <Informatik> (1)
- Spektralfotometrie (1)
- Sperma (1)
- Spieleentwicklung (1)
- Spieltherapie (1)
- Sprache (1)
- Sprachgebrauch (1)
- Sprachverarbeitung (1)
- Spürhund , Person , Suche , Geruchswahrnehmung , Kriminalistik (1)
- Stabilität (1)
- Statistisches Modell (1)
- Steganographie (1)
- Sterbehilfe (1)
- Stereoskopie (1)
- Sterolesterase , Rekombinantes Protein , Pichia pastoris , Gentechnologie (1)
- Steuerhinterziehung (1)
- Steuerungstechnik (1)
- Stickstoff (1)
- Stickstoffstoffwechsel (1)
- Stickstoffverbindungen (1)
- Stochastisches Modell (1)
- Stoffwechsel (1)
- Strafbarkeit (1)
- Strafverfahren (1)
- Strafverfahrensrecht (1)
- Strafverfolgung (1)
- Strafverfolgungsmaßnahme (1)
- Streaming <Kommunikationstechnik> (1)
- Stress (1)
- Studium (1)
- Studium , Neue Medien (1)
- Störfaktor (1)
- Suberin , Cumarin , Biosynthese (1)
- Sulfatreduzierer (1)
- Superabsorber (1)
- Supply Chain Management (1)
- Systemmedizin (1)
- Systemplattform (1)
- Systemprogrammierung (1)
- T-Lymphozyt (1)
- TCP/IP , Firewall (1)
- Taphonomie (1)
- Tatort , Tatrekonstruktion , Computerforensik (1)
- Tatortbesichtigung (1)
- Taufliege (1)
- Taxonomie , Videospiel (1)
- Technische Unterlage (1)
- Tee (1)
- Teilchen (1)
- Telekommunikationsüberwachung (1)
- Textanalyse (1)
- Textur-Mapping (1)
- Tierarzneimittel (1)
- Tierproduktion (1)
- Token (1)
- Transkriptionsfaktor (1)
- Transplantation (1)
- Treiber <Programm> (1)
- Trick (1)
- Trinkwasser (1)
- Trinkwasser , Clostridium perfringens (1)
- Trinkwasseraufbereitung (1)
- Trinkwasserversorgung (1)
- Trolley-Problem (1)
- Tumorzelle (1)
- Tutte-Polynom (1)
- Twitter <Softwareplattform> (1)
- Täter (1)
- UML , Gateway (1)
- Ultrakurzer Lichtimpuls , Laserimpuls (1)
- Umweltbelastung (1)
- Umwelttoxikologie , Schadstoff , Stressor (1)
- Unbemanntes Flugzeug (1)
- Unterkiefer (1)
- Vector Association (1)
- Verbrennungsmotor (1)
- Verdaulichkeit (1)
- Verhältnismäßigkeitsgrundsatz (1)
- Verkehr (1)
- Verkehrsüberwachung (1)
- Vernehmung (1)
- Vernetzung (1)
- Verpackung (1)
- Vertonung (1)
- Verunreinigung (1)
- Verwahrung (1)
- Verwitterung (1)
- Vesikel (1)
- Viber (1)
- Video on demand (1)
- Videoaufzeichnung (1)
- Videoaufzeichnung , Audiotechnik , Softwareentwicklung (1)
- Videospiel , Musik (1)
- Videospiel , Softwareentwicklung (1)
- Videospiel , Virtuelle Realität , Visuelle Wahrnehmung (1)
- Videospielemarkt , Computerspielindustrie , Japan , Kultur , Westliche Welt , Einfluss (1)
- Virusinfektion (1)
- Visualisierung , Dreidimensionale Computergrafik (1)
- Vitamin-D-Gruppe (1)
- Vorschulkind (1)
- WINDOWS <Programm> (1)
- Wahrscheinlichkeitsrechnung (1)
- Wasserprobe (1)
- Wasserstoffionenkonzentration (1)
- Wasserverschmutzung (1)
- Wasserverschmutzung , Ethinylestradiol , Bioassay (1)
- Web-Applikation (1)
- Web-Seite (1)
- Webdesign (1)
- Website , Gestaltung (1)
- Wellenfunktion (1)
- Wiederkäuer (1)
- Wildbirne (1)
- Wildtiere (1)
- Windows 7 (1)
- Windows XP (1)
- Wirkung (1)
- WordPress (1)
- XML (1)
- Zeichnung (1)
- Zeiterfassung (1)
- Zeitreihe , Vektor , Hankel-Matrix (1)
- Zeitreihenanalyse (1)
- Zellkultur , Diagnostik , Lymphatische Leukämie (1)
- Zelltod (1)
- Zellulares neuronales Netz (1)
- Zephyr <Programm> (1)
- Zertifizierung (1)
- Zigbee-Technologie (1)
- Zufallsgraph (1)
- dreidimensionale Rekonstruktion (1)
- visualisierung (1)
- Überwachtes Lernen (1)
Institute
- Angewandte Computer‐ und Biowissenschaften (939) (remove)
In der vorliegenden Arbeit geht es darum, herauszufinden, ob es möglich ist, die Heldenreise nach Joseph Campbell, auf Erklärvideos anzuwenden. Dabei wer-den die verschiedenen Formen des Storytellings analysiert, sowie erörtert, was ein gutes Erklärvideo ausmacht. Die Heldenreise wird weiter analysiert, um festzustellen, inwieweit die Heldenreise als Blaupause benutzt werden kann. Auf Basis dieser Blaupause wird ein Erklärvideo im Lernbereich erstellt und mit Hilfe einer Umfrage ausgewertet, ob es sinnvoll ist, diese Vorlage zu nutzen.
Die Vorbereitung eines Rennwagens für eine Fahrt ist aufwändig. Daher soll ein 3d Modell des Formula Student Rennwagens ’elCobra’ in die Simulationsplattform Assetto Corsa integriert werden, um einfache Manöver virtuell nachstellen zu können. Am Schluss wird ein Fragebogen aufgestellt, auf dessen Basis das Modell und die Materialien des Fahrzeugs nach unterschiedlichen Kriterien evaluiert, und Mitglieder des Technikum Mittweida Motorsport damit befragt werden.
In dieser Arbeit wird eine Vorgehensweise für die Erstellung von Grafiken zur Nachempfindung eines 2D Cartoon Looks mithilfe von 3D-Daten vorgestellt und evaluiert. Dafür werden vorerst essenzielle Definitionen in Bezug auf Stil geklärt, wichtige Stilelemente identifiziert, erläutert und in einer 3D-Umgebung praktisch umgesetzt. Es wird dabei eine tatsächliche Nachbildung von Spielelementen durchgeführt, um diese schlussendlich bewerten zu können.
Drought is one of the most common and dangerous threats plants have to face, costing the global agricultural sector billions of dollars every year and leading to the loss of tons of harvest. Until people drastically reduce their consumption of animal products or cellular agriculture comes of age, more and more crops will need to be produced to sustain the ever growing human population. Even then, as more areas on earth are becoming prone to drought due to climate change, we may still have to find or breed plant varieties more suitable to grow and prosper in these changing environments.
Plants respond to drought stress with a complex interplay of hormones, transcription factors, and many other functional or regulatory proteins and mapping out this web of agents is no trivial task. In the last two to three decades or so, machine learning has become immensely popular and is increasingly used to find patterns in situations that are too complex for the human mind to overlook. Even though much of the hype is focused on the latest developments in deep learning, relatively simple methods often yield superior results, especially when data is limited and expensive to gather.
This Master Thesis, conducted at the IPK in Gatersleben, develops an approach for shedding light on the phenotypic and transcriptomic processes that occur when a plant is subjected to stress. It centers around a random forest feature selection algorithm and although it is used here to illuminate drought stress response in Arabidopsis thaliana, it can be applied to all kinds of stresses in all kinds of plants.
There are multiple ways to gain information about an individual and its health status, but an increasingly popular field in medicine has become the analysis of human breath, which carries a lot of information about metabolic processes within the individuals body. The information in exhaled breath consists of volatile (organic) compounds (VOCs). These VOCs are products of metabolic processes within the individuals body, thus might be an indicator for diseases disturbing those processes. The compounds are to be detected by mass-spectrometric (MS) or ion-mobility spectrometric (IMS) techniques, making the analysis of these compounds not only bounded to exhaled breath. The resulting data is spectral data, capturing concentrations of the VOCs indirectly through intensities. However, a number of about 3000 VOCs [1] could already be determined in human exhaled breath. The number of research paper about VOC-analysis and detection had risen nearly constantly over the last decade 1. Furthermore, the technique to identify VOCs could also be used to capture biomarker from alien species within the individuals body. Extracting VOCs from an individual can be done by non- or minimal invasive techniques. However, the manual identification of VOCs and biomarkers related to a certain disease or infection is not feasible due to the complexity of the sample and often unknown metabolic products, thus automized techniques are needed. [1–4] To establish breath analysis as a diagnosis tool, machine learning methodes could be used. Machine learning has become a popular and common technique when dealing with medical data, due to the rapid analysis. Taking this advantage, breath analysis using machine learning could become the model of choice for diagnosis, keeping in mind that conventional methodes are laboratory based and thus when trying detect bacterial infection need sometimes several days to identify the organism. [5]
Diese Arbeit beschäftigt sich mit der Frage, ob und inwiefern es möglich ist, das Griffgeschehen anhand sichergestellter Spuren digital zu rekonstruieren. Um die Frage zu beantworten, wird sich neben der Anatomie der Hand auch mit den Ansprüchen der Photogrammetrie sowie der Erstellung und Weiterverarbeitung von 3D-Modellen beschäftigt. Das Ziel besteht zum einen darin, mittels photogrammetrischer Aufnahmen, ein 3DModell von dem Spurenträger sowie dem Spurenverursacher zu erstellen. Die Hand soll hierbei ausgestreckt sein. Zum anderen soll mit den entstandenen Modellen der Griff wiederhergestellt werden, in dem das Handmodell in Blender bewegt werden soll. Es stellte sich heraus, dass sich die vorgestellten Methoden zur Erstellung eines Handmodells nicht eigneten, um der Fragestellung dieser Arbeit nachzugehen. Der Hauptgrund besteht darin, dass die Hand, anders als die Tasse, kein Objekt ist und somit nicht auf den Drehteller abgestellt werden kann. Anders als bei Objekten, konnten die Photogrammetrischen Aufnahmen folglich ausschließlich händisch aufgenommen werden. Zudem erwiesen sich die Aufnahmen der ausgestreckten Hand als schwierig. Besondere Probleme bereitete hierbei das Stillhalten der Hand aufgrund der unnatürlichen Pose und der Dauer der Bildaufnahmen. Insgesamt dienen die Ergebnisse dieser Arbeit als Grundlage für weitere Forschungsthemen im Bereich Photogrammetrie sowie der Rekonstruktion des Griffgeschehens.
Hinsichtlich des verändernden Stoffwechsels stellen Kiesel- und Grünalgen eine interessante und gut nutzbare, wenn auch lose und schwer definierbare Gruppierung innerhalb der biologischen Systematik dar: Ihr Potenzial, die Eigenschaften von Pflanzen (dank Photosynthese) und Mikroorganismen (in ihrer jeweiligen Größe und ihrem bedingt heterotrophen Stoffwechsel) zu kombinieren, ist bisher unübertroffen und eröffnet Möglichkeiten u. a. für die Bereiche der Abwasserbehandlung und die Kultivierung von Mikroalgen in Abwassermedien. Obwohl ihre Eignung für wirtschaftliche Zwecke ihr volles Potenzial noch nicht vollständig erreicht hat, scheint der Weg dorthin sicherlich diese Richtung einzuschlagen – mit der Biotechnologie als ein sich ständig weiterentwickelndes Fachgebiet, ist die Verwendung von Algen
für bestimmte Zwecke an die bisherigen Erkenntnisse und den daraus resultierenden Möglichkeiten gebunden. In diesem Versuch wurden insgesamt vier Mikroalgen, drei Grünalgen (C. vulgaris, A. obliquus und C. reinhardtii) und eine Kieselalge (N. pelliculosa), auf ihr Wachstumsverhalten in unterschiedlich konzentrierten Abwassermedien, von 20 % bis 100 % in 20 %-Schritten, getestet. In Bezug auf die erzielten Ergebnisse scheint der vielversprechendste Kandidat für diese Zwecke C. reinhardtii zu sein, welcher das schnellste Wachstum innerhalb der Inkubationszeit von 3 Tagen erreicht hatte und die meisten Nährstoffe aus dem Abwassermedium entfernte. In geringeren Abwasserkonzentrationen kam es stattdessen zum starken Wachstum von A. obliquus, womit dieser Organismus eine Alternative zu geringer belasteten Medien (hinsichtlich der Nährstoffe, als auch der Keimbelastung) darstellt. Außerdem wurden je 5 L A. obliquus und C. vulgaris Inokula in einem größeren Aquarium mit ca. 50 L Abwasser inkubiert unter strengeren Parameterbedingungen und höheren
Kontaminationsrisiko. Dennoch konnte auch hier innerhalb von fünf Tagen ein Abbau von ca. 99,40 % des Phosphats auf 0,055 mg/L erreicht werden, innerhalb einer Woche bzw. sieben Tagen von 99,92 % auf 0,007 mg/L ortho-Phosphat. Ob diese Organismen auch weiterhin eine wichtige Rolle in zukünftigen Technologien für die Abwasserreinigung spielen, hängt von weiteren Studien auf diesem Gebiet ab sowie neuen Innovationen bezüglich der wirtschaftlichen Nutzbarkeit für Unternehmen, welche durch Investitionen den weiteren Ausbau sowie die Forschung im Gebiet der
Algennutzung fördern.
Die vorliegende Bachelorarbeit befasst sich mit dem Thema, ob sich Errungenschaften, auf Video on Demand Portalen, positiv auf die Langzeitbindung der Kunden auswirken können. Diesbezüglich werden in dieser Bachelorarbeit Erfolgsfaktoren von Gamification ausgearbeitet. Aus diesen, wird gemeinsam mit den Grundlagen von Video on Demand und der Verhaltenstherapie ein Konzept entwickelt, dass ein erfolgreiches Einsetzen von Achievements auf Video on Demand Plattformen ermöglichen soll. Das Konzept wird dabei durch eine Umfrage von Video on Demand Konsumenten gestützt.
Active Learning (AL) ist eine besondere Trainingsstrategie im überwachten maschinellen Lernen, mit dem Ziel die Accuracy eines Klassifikators zu verbessern, indem ein Klassifikator mit nur wenig gelabelten, aber dafür hoch informativen Datenpunkten (DP) gelernt wird. In der medizinischen Forschung liegen oftmals nur wenig gelabelte DP vor. AL kann eine sinnvolle Strategie sein, um die Kosten und den Aufwand für das Labeln ungelabelter DP zu senken. Mit Pool-Based AL wurden bisher die größten Erfolge verzeichnet. In der vorliegenden Arbeit wurden zwei biologische, binäre Klassifikationsprobleme mit Uncertainty Sampling Pool-Based AL und Query by Bagging Comitee Pool-Based AL untersucht. Der Generalized Learning Vector Quantization (GLVQ) und ein Multilayer Perzeptron (MLP) wurden als Klassifikatoren verwendet. Anhand eines linear trennbaren und eines nicht linear trennbaren Datensatzes wurden die Auswirkungen der Anzahl an gelabelten DP, mit welcher die Klassifikatoren zu Beginn trainiert wurden, auf die Accuracy untersucht. Die AL-Accuracy näherte sich für das anfängliche Training der Klassifikatoren mit 10 % gelabelten DP bereits stark an die Accuracy im klassischen maschinellen Lernen an und war teilweise sogar größer. In einem weiteren Experiment wurden daher die Klassifikatoren anfänglich mit nur 1 % gelabelten DP trainiert. Es wurde die Auswirkung der Anzahl nachgelabelter DP, mit welcher die Klassifikatoren nachtrainiert wurden, auf die Accuracy untersucht. Für den linear trennbaren Datensatz war die Anwendung von AL mit dem GLVQ und 10 nachgelabelten DP sowie mit dem MLP und 50 nachgelabelten DP erfolgreich. Bei dem nicht linear trennbaren Datensatz wurde mit dem MLP zumindest eine Tendenz, dass AL die Accuracy verbessert, festgestellt. Jedoch reichten 50 nachgelabelte DP nicht aus.
The games industry has significantly grown over the last 30 years. Projects are getting bigger and more expensive, making it essential to plan, structure and track them more efficiently.
The growth of projects has increased the administrative workload for producers, project managers and leads, as they have to monitor and control the progress of the project in order to keep a permanent overview of the project. This is often accompanied by a lack of insight into the project and basic communication within the team. Therefore, the goal of this thesis is to enhance conventional project management methods with process structures that occur frequently in game development.
This thesis initially elaborates on what project management in the game industry actually is: Here, methods are considered, especially agile methods and progress tracking prac-tices, which were created for software development and have become a standard in game development. Subsequently, an example is used to demonstrate how process management can function within the development of video games. Based on this, the ideal is depicted, which is implemented and used in a tool at the German games studio KING Art GmbH. This ideal is compared with expert interviews in order to verify its gen-eral validity in the industry.
By integrating process structures, the administrative effort can be reduced, communica-tion within game development can be simplified, while the current project status can be permanently presented. This benefits both project management and leads, as well as the entire team. Further application tests of this theory would have to be organized to check scalability and to draw comparisons to other applications.
Eine empirische Analyse von 19 DAO-Airdrops im Hinblick auf die Governance-Aktivität der Empfänger: Airdrops sind ein bekannter Incentive-Mechanismus bei Blockchain-Protokollen. In den letzten Jahren haben vor allem DAOs „retroaktive“ Airdrops für sich entdeckt, die frühe Nutzer eines Protokolls entlohnen. Diese Art der Verteilung von Token gilt allerdings auch als ein möglicher Lösungsansatz für Zentralisierung bzw. mangelnde Voting-Beteiligung in DAOs. Thema der Arbeit ist daher, welchen Effekt Airdrops auf die Governance-Aktivität in DAOs haben. Zu diesem Zweck wurden 19 DAOs empirisch untersucht. Wir vergleichen die Voting-Beteiligung der Airdrop-Empfänger auf Snapshot bzw. on-chain mit dem der Gesamtheit der Token-Halter. Außerdem wird die Verteilung der Airdrops, die Halte-Dauer und der Delegations-Anteil betrachtet. Wir stellen fest, dass die Beteiligung der Airdrop-Empfänger im Durchschnitt etwas höher ist als die von nicht-Airdrop-Empfängern. Ob Airdrops sich als Governance-Instrument eignen, ist allerdings im Einzelfall zu betrachten.
Ist Biodiesel, welcher aus Algen gewonnen wird, als klimaneutraler Kraftstoff Ersatz für fossile Brennstoffe eine wirtschaftlich sinnvolle Alternative? Oder ist das doch nur biotechnologisches Wunschdenken. Mit dieser Frage beschäftigt sich die nachfolgende Ausarbeitung. Dabei werden zunächst Biokraftstoffe als ganzes beleuchtet, um danach zwei Algen vorzustellen welche häufig im Zusammenhang mit Biofuels genannt werden. Es werden verschiedene Kultivierungs- und Produktionssysteme erläutert. Anschließend folgt eine Einschätzung der Ausbeute aus den Prozessen zusammen mit einer Einschätzung zur Nachhaltigkeit. Am Ende wird ein Blick in die Zukunft der Technologie gewagt und Kritikpunkte offengelegt.
Due to the intractability of the Discrete Logarithm Problem (DLP), it has been widely used in the field of cryptography and the security of several cryptosystems is based on the hardness of computation of DLP. In this paper, we start with the topics on Number Theory and Abstract Algebra as it will enable one to study the nature of discrete logarithms in a comprehensive way, and then, we concentrate on the application and computation of discrete logarithms. Application of discrete logarithms such as Diffie Hellman key exchange, ElGamal signature scheme, and several attacks over the DLP such as Baby-step Giant-step method, Silver Pohlig Hellman algorithm, etc have been analyzed. We also focus on the elliptic curve along with the discrete logarithm over the elliptic curve. Attacks for the elliptic curve discrete logarithm problem, ECDLP have been discussed. Moreover, the extension of several discrete logarithms-based protocols over the elliptic curve such as the elliptic curve digital signature algorithm, ECDSA have been discussed also.
Die Kreatur des Aliens aus dem gleichnamigen Science-Fiction/-Horrorfilm ist seit Jahren ein fester Bestandteil der modernen Medienkultur. Ausgehend von der Frage „Warum wirkt die Figur des furchteinflößenden Aliens so gut?“ wird in der vorliegenden Arbeit eine Analyse der körperlichen aber auch sozialen Merkmale des Film-Aliens sowie ähnlicher Kreaturen aus der Medienwelt vorgelegt, die auf die Ursachen der starken psychischen und emotionalen Wirkung dieser Figuren abzielt. Dabei zeigt sich, dass es eine spezifische Kombination von Merkmalen gibt, die sich auf eine konstruierte Alien-Figur übertragen lassen und eine starke emotionale Wirkung beim Menschen erzielen kann.
In der vorliegenden Arbeit werden neue Pulver als Alternative für das Rußpulver hergestellt, geprüft und bewertet. Ziel ist es ein für den Anwender gesünderes, kostengünstiges und einfach erhältliches Pulver zu entwickeln. Hierfür wurden unterschiedliche Alltagsmaterialien verwendet. Die dafür angewendeten Grundlagen und Methoden werden erklärt und evaluiert.
Diese Arbeit beschäftigt sich mit der Altersbestimmung der forensisch relevanten Schmeißfliegenart Lucilia sericata anhand der Augenfärbung während der Puppenentwicklung. Das Puppenstadium macht ca. 50 % der Gesamtentwicklung vom Ei bis zur Fliege aus, eine geeignete Methode zur differenzierten Altersbestimmung von Puppen findet derzeit allerdings noch keine Anwendung. Durch vorangegangene Studien zur Puppenentwicklung ist die Augenfärbung zunehmend als Merkmal aufgefallen, sodass in dieser Arbeit untersucht werden soll, ob anhand der Augenfärbung eine Altersbestimmung möglich ist und ob diese in Zukunft als Marker eingesetzt werden kann. Hierfür wurde die Färbung mithilfe des RGB-Farbmodells analysiert. Die Augenfärbung von Lucilia sericata ändert sich über die komplette Metamorphose hinweg hoch signifikant (p<0,0001). Des Weiteren konnte die Färbung in drei Phasen unterteilt werden: larvale Färbung, Rotfärbung und Braunfärbung. Eine Altersbestimmung mithilfe der linearen Regression ist durch sprunghafte Farbänderungen derzeit noch nicht möglich.
Die vorliegende Masterarbeit befasst sich mit der Entwicklung einer Android-Applikation zur Alarmierung der Bevölkerung bei vermissten Kindern in Deutschland. Dabei richtet sich der Fokus zuerst auf das aus den USA stammende AMBER-Alert-System – ein System zur Suche vermisster Kinder – und im weiteren Verlauf auf den aktuellen Stand eines solchen Systems innerhalb Deutschlands. Bisher haben sich nur wenige Arbeiten mit der Umsetzung einer solchen App auseinandergesetzt. Aus diesem Grund liegt der Schwerpunkt dieser Arbeit auf der Implementierung einer prototypischen App zur Alarmierung der Bevölkerung bei vermissten Kindern in Deutschland. Diesbezüglich werden bereits existierende Applikationen betrachtet und daraus ein konzeptioneller Entwurf entwickelt. Dieser Entwurf dient als Grundlage für die prototypische Implementierung der App.
Die vorliegende Arbeit stellt eine effektive Möglichkeit dar, um einen Großteil der Bevölkerung in Deutschland zur schnellen Suche und sicheren Bergung bei vermissten Kindern zu erreichen.
Aufgrund einer immer älter werdenden Bevölkerung ist das Thema des gesunden
Alterns ein wichtiges Forschungsfeld. Dabei haben vor allem molekulare Prozesse eine bedeutende Rolle, weshalb auch die DNA ein bedeutendes Untersuchungsobjekt darstellt. Neben Mutationen auf Sequenzebene gibt es auch Veränderungen der DNA auf einer übergeordneten Ebene, welche die Sequenzabfolge selbst nicht verändern. Ein solcher Prozess ist die DNA-Methylierung, welche in allen höher entwickelten Eukaryonten von großer Bedeutung ist. Ein Modellorganismus, der in der Alternsforschung
immer mehr Beachtung fndet, ist der manuelle Fisch N. furzeri. Da zur
DNA-Methylierung im Organismus N. furzeri noch nichts bekannt ist, erfolgte im Rahmen dieser Masterarbeit eine Untersuchung der globalen DNA-Methylierung im Alterungsprozess des N. furzeri.
In dieser Arbeit werden ausgewählteWerbenetzwerke in Android-Apps im Hinblick auf deren Datenerhebung betrachtet. Dabei stellen sich folgende Forschungsfragen: Welche Daten werden an die Werbenetzwerke übermittelt? Wie decken sich die übermittelten Daten mit den Angaben seitens der Werbenetzwerke? Wie werden die Daten von dem Android-Gerät erhoben und welchen Einfluss haben die Daten auf die Privatsphäre des Benutzers? Um die Forschungsfragen zu beantworten, ist eine Auswahl von 100 Apps aus dem Google Play Store getroffen und auf deren enthaltenen Werbenetzwerke analysiert worden. Anschließend wurde der Netzwerkverkehr von ausgewählten Werbenetzwerken mithilfe eines Proxy-Server betrachtet, um die übermittelten Daten abzufangen. Gleichzeitig sind die Datenschutzerklärungen
der ausgewählten Werbenetzwerke im Hinblick auf deren Angaben zu erhobenen Daten betrachtet worden.
Abschließend wurde der Quellcode von den Werbenetzwerken angeschaut, um herauszufinden wie die Daten aus dem Android-System erhoben werden.
Die Ergebnisse der Analyse des Datenverkehrs zeigen, dass neben Daten über das verwendete Gerät, die ausführende App, zur ungefähren Positionsbestimmung und zu Einstellungsparameter auch Statusinformationen, wie Ladezustand der Batterie und freier Speicherplatz, übertragen werden. Es wurde festgestellt, dass Werbenetzwerke erheblich mehr Daten erheben und übermitteln als in deren Datenschutzerklärungen angegeben. Durch die Analyse des Quellcodes der Werbenetzwerke konnte herausgefunden werden, dass Daten zum einen über API-Aufrufe an das Android-System ermittelt werden und zum anderen durch entsprechende Algorithmen der Werbenetzwerke. Mithilfe der Ergebnisse konnte gezeigt werden, dass seitens der Werbenetzwerke eine bessere und umfangreichere Angabe zu den erhobenen Daten wünschenswert ist.
Weiterhin konnten unter den Daten keine personenbezogenen Informationen gefunden werden, welche eine Zuordnung zu einem einzelnen Individuum erlauben. Jedoch wurden Informationen gefunden, die eine Zuordnung der Daten zu einem einzelnen Gerät erlauben.
In dieser Bachelorarbeit werden die Artefakte im Arbeitsspeicher der Webclients des Instant-Messenger-Dienstes Threema und des Social-Media-Dienstes Instagram aus forensischer Sicht betrachtet. Hierfür werden die Funktionsweisen der Anwendungen und die auf dem Gerät im RAM enthaltenen Artefakte forensisch analysiert und diskutiert. Anhand der aus dieser Arbeit gezogenen Erkenntnisse sollen zukünftige forensische Untersuchungen, die in Verbindung mit einer oder beiden dieser Anwendungen stehen, unterstützt werden, gefundene Artefakte zu identifizieren und interpretieren.
In dieser Bachelorarbeit werden die Artefakte im Arbeitsspeicher unter den Betriebssystemen Microsoft Windows und Linux der Web Clients der Instant-Messengerdienste WhatsApp und Telegram aus forensischer Perspektive beleuchtet. Hierfür werden die technischen Aspekte der Funktionsweise sowie von der Anwendung auf dem Gerät im Internetcache enthaltene Artefakte digital forensisch analysiert und diskutiert. Die gewonnenen Erkenntnisse sollen zukünftige forensische Untersuchungen, bei denen Instant-Messengerdienste wie WhatsApp oder Telegram eine Rolle spielen, vereinfachen und die Interpretation der gefundenen Artefakte unterstützen.
Digitale 3D-Modelle finden zunehmend auch im Bereich der Kriminalistik Anwendung, da sie nicht nur zur dauerhaften Dokumentation eines Tatortes beitragen, sondern auch wertvolle Erkenntnisse hinsichtlich des Tatherganges liefern können. Die vorliegende Arbeit befasst sich mit der Überprüfung des Generierungsprozesses derartiger 3D-Modelle hinsichtlich der in der IT-Forensik geltenden Richtlinien für die Reproduzierbarkeit und Dokumentation. Diese Untersuchung ist von Bedeutung, da die digitale 3D Tatortrekonstruktion nicht nur für die Ermittler selbst Hinweise liefert, sondern auch vor Gericht maßgebliche Beweiskraft haben kann, insofern sie die Anforderungen erfüllt. Für die Überprüfung wurden die beiden Softwarelösungen Agisoft Metashape und Meshroom genutzt, um zahlreiche Modelle unterschiedlicher Parametersets zu generieren. Anschließend wurden die mit gleichen Ausgangsbedingungen generierten Modelle hinsichtlich ihrer Ähnlichkeit verglichen, um so die Reproduzierbarkeit zu untersuchen. Mithilfe der Handbücher wurden zudem die einzelnen Prozessschritte näher betrachtet und somit die Möglichkeiten der Dokumentation überprüft.
Menschen hinterlassen bei jeder Berührung eines Gegenstandes Fingerabdrücke, durch die sie eindeutig identifiziert werden können, sofern die Qualität dieser aus-reichend ist. Geachtet wird dabei vor allem auf das Grundmuster und den Papillarleisten eines Fingerabdrucks, in denen sich individuell angeordnete Minuzien wiederfinden. Die Qualität dieser Spuren hängt nicht nur von der Person selbst ab, sondern wird u.a. auch durch äußere Gegebenheiten beeinflusst. In dieser Arbeit wird speziell auf den Einfluss filmischer Verunreinigungen auf daktyloskopischer Spuren eingegangen. Zum Einsatz kommen dabei sowohl feste, als auch flüssige Verunreinigungen, die für festgelegte Zeitintervalle auf die Fingerabdrücke einwirken. Die Qualität der verunreinigten Fingerspuren wird analysiert, im jeweiligen Kontext ausgewertet und kann dabei zukünftigen Arbeiten eine Grundlage bieten. Filmisch verunreinigte Fingerabdrücke können sich durchaus auch nach längerer Einwirkzeit sichern lassen, sofern die Sicherungsmethoden passend ausgewählt und angewendet werden.
Analyse des Einflusses verschiedener Umweltfaktoren auf die spektroskopische Blutaltersbestimmung
(2017)
Blutspuren gehören zu den wichtigsten Beweisen in der Forensik. Neben der morphologischen Untersuchung wie bei der Blutmusteranalyse, kann ebenfalls das Blut an sich untersucht werden um das Alter zu bestimmen. Somit lassen sich nicht nur Tathergänge rekonstruieren, auch eine Überprüfung der Aussagen von Zeugen oder Tatverdächtigen ist somit möglich. Allerdings erschweren Umweltfaktoren die Bestimmung des Alters. Der Einfluss der Faktoren Licht, Temperatur und Luftfeuchtigkeit wurde in dieser Arbeit mit Hilfe einer spektroskopischen Analysemethode, der UV/VIS-Spektroskopie, über einen Zeitraum von 21 Tagen untersucht. Für die Bestimmung des Blutalters wurden neben den vier spezifischen Blutpeaks, zwei Peaks aus dem UV-Bereich näher betrachtet. Es konnte beobachtet werden, dass vor allem die Temperaturverhältnisse einen großen Einfluss auf die Umwandlung von Oxyhämoglobin zu Methämoglobin haben. Die Umsetzungsrate ist hierbei viel geringer. Die Betrachtung der Peaks im UV-Bereich ergab, dass diese von Lichteinflüssen stärker beeinflusst werden. Jedoch eignen sich die Peaks nur bis zu einem Zeitraum von maximal fünf Tagen, da bei älteren Spuren die Werte nicht mehr zuverlässig sind.
Die Altersbestimmung von Blut kann hilfreiche Aufschlüsse über das gesamte geschehene Verbrechen liefern. So kann nicht nur die Leichenliegezeit bestimmt, sondern auch Zeugenaussagen auf ihre Wahrheit überprüft werden. In der Forensik gibt es kostspielige Methoden, um das Alters eines Blutfleckes bestimmen zu können. Hierbei ist auch zu beachten, dass Umwelteinflüsse die Untersuchung und Bestimmung im Wesentlichen erschweren können.
In dieser Bachelorarbeit wurde sich daher auf die spektroskopische Untersuchung mittels UV/VIS-Spektroskopie über einen Zeitraum von 40 Tagen konzentriert. Für das Experiment wurde ausschließlich der Faktor Temperaturverhältnis einbezogen. Für die Blutaltersbestimmung wurden die Peaks der Hämoglobinderivate Methämoglobin und Oxyhämoglobin näher betrachtet. Es konnte beobachtet werden, dass die Peaks, aufgrund der Oxidation von Hämoglobin, mit zunehmenden Alter abnehmen. Des Weiteren konnte festgestellt werden, dass das Blut in kalten Umgebungen langsamer altert, als in warmen Umgebungen.
Für die Unfallrekonstruktion bietet die Erstellung eines 3D-Modelles viele Vorteile. Es fallen weniger Daten bei der Datenakquirierung an und somit wird benötigte Zeit an der Unfallstelle reduziert. Zusätzlich lassen sich Messungen direkt am 3D-Modell vornehmen. Um eine möglichst genaue 3D-Rekonstruktion zu ermöglichen, wurde in dieser Arbeit der Einfluss von verschiedenen Aufnahmemethodiken und softwarespezifischen Prozessparametern, auf das mithilfe der Photogrammetrie Software Agisoft PhotoScan erstellte Modell untersucht. Da es bisher wenig Literatur gab, welche sichmit der richtigen Parametrisierung des Rekonstruktionsprozesses auseinandersetzte, wurde dabei deshalb empirisch vorgegangen. Als unterschiedliche Aufnahmemethoden wurden die Aufnahme direkt mit der Kamera aus der Hand, an einem Stativ und aus der Luft mit drei verschiedenen Kamerasystemen analysiert. Die rekonstruierten 3D-Modelle wurden auf ihre Abweichung und auf die optische Ähnlichkeit zum realen Modell untersucht. Das Ziel dieser Arbeit war die Optimierung des Rekonstruktions- und Aufnahmeprozesses für die Aufnahme einer Fahrbahn. Dabei stellten sich heraus, dass sich für verschiedene Aufnahmemethodiken unterschiedliche Prozessparameter eignen und dass die Parametrisierung, neben der Aufnahmemethodik, einen großen Einfluss auf das fertige 3D-Modell hat.
Die Biometrie ist eine Methode für die Zugriffssicherung auf sensible Daten, welche sich seit dem letzten Jahrzehnt immer mehr durchgesetzt hat. Sie wird vor allem in dem Bereich mobiler Endgeräte verbreitet eingesetzt, da die Implementierung kostengünstig ist. Außerdem muss sich der Benutzer keine Zugangsdaten merken, um Zugriff zu erlangen. Mit dem zunehmenden Nutzen werden jedoch auch Ansätze evaluiert, um diese Sicherheitsbeschränkungen von biometrischen Systemen zu umgehen.
In dieser Arbeit werden Ansätze evaluiert, um Zugang zu gesicherten Daten für forensische Zwecke zu erhalten. Bei Straftaten ist es entscheidend, in kurzer Zeit an die benötigten Daten zu kommen. Mit einem Brute-Force-Angriff kann es jedoch mehrere Jahre dauern, Passwörter zu knacken. Daher kann die Biometrie eine schnellere Lösung sein, um mobile Geräte zu entsperren. Hier liegt der Fokus auf der Erstellung von Fingerabdruck-Artefakten, um sich Zugang zu verschaffen.
Um diese These zu überprüfen, werden Experimente mit verschiedenen Ansätzen durchgeführt, um gängige Typen von Fingerabdrucksensoren zu umgehen. Zu Beginn wurden 2D-Ansätze evaluiert. Hierbei werden Fingerabdrücke mit einem Laserdrucker auf verschiedenste Materialien gedruckt. Als nächstes werden 3D-Ansätze getestet, wozu ein SLA Drucker verwendet wird. Darüber hinaus sind Hilfsmittel evaluiert worden, um die Eigenschaften der Fingerabdruckartefakte zu verbessern, damit sie sich mehr wie ein menschlicher Finger verhalten.
Die Experimente zeigen, dass es möglich ist, Fingerabdrucksensoren mit Artefakten zu umgehen, um an gesicherte Daten zu gelangen. Optische Sensoren akzeptieren 2D gedruckte Fingerabdrücke. Im Gegensatz dazu benötigen kapazitive und ultraschallbasierte Sensoren andere Artefakte. Wir konnten die Sicherheitssperre mit 3D Fingerabdrücken überwinden. Darüber hinaus sind Hilfsmittel nützlich, wenn eine Lebenderkennung integriert ist.
In dieser Bachelorarbeit wird der Messengerdienst WhatsApp auf Mobilgeräten mit Android-Betriebssystem aus digitalforensischer Perspektive beleuchtet. Dazu werden technische Aspekte der Funktionsweise sowie von der Anwendung auf dem Gerät gespeicherte Dateien und die enthaltenen forensischen Artefakte ebenso diskutiert wie mehrere Möglichkeiten, WhatsApp betreffende Daten zu extrahieren. Des Weiteren werden sowohl das WhatsApp-interne als auch das Android-Systemlog analysiert, um den erstellten Einträgen die zugrunde liegenden Nutzeraktivitäten zuordnen zu können. Anschließend wird ein Programm vorgestellt, das die gewonnenen Erkenntnisse nutzt, um automatisiert aus den gegebenen Logdateien Ereignisse zu extrahieren und aufzubereiten.
Die Arbeit soll für forensische Untersuchungen, bei denen WhatsApp eine Rolle spielt, sowohl die Informationen als auch ein Werkzeug bereitstellen, mit dem die Aktivitäten des Nutzers nachvollzogen und wichtige Spuren gefunden werden können.
Das Ziel der vorliegenden Bachelorarbeit besteht darin, den Renesas Synergy S7G2 Mikrocontroller und dessen Merkmale und Funktionen in Bezug auf Sicherheitsmechanismen zu analysieren, um eventuelle Schwächen zu identifizieren. Dafür werden zu Beginn Mikrocontroller und deren Eigenschaften grundlegend erklärt. Weiterführend werden sowohl praktische als auch theoretische Untersuchungen und Betrachtungen des S7G2s angestellt, wobei das Hauptaugenmerk in der Praxis auf der JTAGSchnittstelle liegt. Abschließend wird der Renesas Controller und dessen Merkmale mit denen des Atmel ATXMEGA-A3BU-Xplained Mikrocontrollers verglichen, um die Sicherheit beider zu diskutieren.
Das Ziel dieser Arbeit ist die Analyse von Kampfszenarien in Videospielen, mit dem Fokus auf der Gewichtung von unterschiedlichen Charakter-Klassen und Teamzusammenstellung.
Dazu wird dies an zwei Videospielen analysiert. Danach wird eine Anforderungsanalyse durchgeführt und es erfolgt die prototypische Umsetzung eines Softwaretools, in dem sich Kampfszenarien simulieren lassen. Ergänzend dazu wird eine visuelle Evaluation implementiert. Anhand der Auswertung von Testsimulationen wird dann eine erneute Analyse durchgeführt.
Analyse dezentraler Identifikation mittels Sidetree-Protokolls, am Beispiel von Microsoft ION
(2021)
This master thesis deals with the field of decentralized identification, using the example of the Microsoft Identity Overlay Network (ION). In the introduction, basic terms such as identity and identification are described. A special emphasis is placed on the explaining of the principle of decentralized identifiers (DIDs) and the SSI concept. ION is an implementation of the Sidetree protocol and uses its core components. This is the reason why more details and special parts of Sidetree are described in the methods chapter. Afterwards the ION history and network topology is typify more in detail. An ION node will be installed and operated on top of the Bitcoin blockchain. The installation process and the problems that arise are recorded. Then the ION tools (a programming library and its values) will be explained and the example program code is shown. As a practical addition of the ION tools, a verifiable credential solution is scripted. This solution shows the creation of ION-DID and the signature options of these identifiers. In the results chapter the knowledge acquired via the decentralized identification is evaluated. A theoretical security analysis for ION is implemented. Furthermore, a list of the currently possible uses for the network is enumerated. A discussion is initiated that compares the advantages and disadvantages of ION. The thesis ends with a conclusion and an outlook for ION and decentralized identification.
Das Ziel dieser Arbeit ist die Untersuchung der in Blender vorhandenen Tools zur Erstellung einer Fallsimulation mit einfachen Objekten und Menschmodellen. Nach einem kurzen Überblick über die Theorie werden verschiedene Kräfte in mehreren Testreihen untersucht und schlussendlich kombiniert. Diese Testreihen werden mit dem Programm Blender durchgeführt. Zusätzlich wurde eine Anleitung zur Erstellung einer Ragdoll in Blender 2.8 an-gefertigt.
Diese Bachelorarbeit beschäftigt sich mit der Analyse des Bussystems FlexRay. Dieses System wird vor allem für sicherheitskritische Aspekte im Fahrzeug eingesetzt. Somit kann das FlexRay über das Leib und Leben des Fahrers und aller Verkehrsteilnehmer mitwirken. Gerade in heu-tigen Zeiten, wo immer mehr Technologie zur Sicherheit des Verkehrs beitragen soll, wird vor allem in die Sicherheit des Systems im Bezug zur Zuverlässigkeit geforscht. Die Absicherung vor Manipulationen oder Angriffen auf den Bus wird jedoch nur wenig untersucht. Daher soll diese Ausarbeitung zur Analyse des Bussystems, bezüglich der IT-Sicherheit dienen. Dabei ist die Thematik dieser Arbeit noch nicht abgeschlossen, sie bildet jedoch eine gute Grundlage für weiterführende Versuche.
Die Aufgabe der V2X-Kommunikation ist es, zukünftig die Sicherheit und Effizienz im Straßenverkehr zu erhöhen. Das Ziel dieser Arbeit besteht darin, sicherheitsrelevante Aspekte von Car2X Protokollen zu analysieren. Grundlage bildet hier der europäischen ETSI-Standard. Da es sich bei dieser Arbeit um eine Literaturrecherche handelt, werden zu diesem Zweck die Veröffentlichungen des Standards herangezogen. Zunächst wird das Netzwerk aufgezeigt, in dem die Kommunikation zwischen den Fahrzeugen und der Infrastruktur stattfindet. Anschließend werden wichtige Protokolle analysiert und verschiedene Angriffspunkte untersucht. Die verschiedenen Angriffe werden mit anderen Forschungsarbeiten verglichen und analysiert. In dieser Arbeit wurde festgestellt, dass trotz spezieller Sicherheitsvorkehrungen, Angriffe auf das Netzwerk und die Protokolle möglich sind.
In der vorliegenden Arbeit wird das Thema Cybercrime umfangreich behandelt. Dabei wird unter anderem auf den klassischen Cyberangriff und auf das Thema Social Engineering eingegangen. Die Problematik der Cybercrime, wird für jeden leicht verständlich erklärt. Dabei wird eine neue und allgemeine Anatomie von Cyberangriffen erarbeitet und es werden aktuelle Beispiele diskutiert. Ziel der Arbeit ist es, ein Sicherheitsbewusstsein zu schaffen mit dem jeder sich sicherer in der digitalen Welt bewegen kann.
Ziel der vorliegenden Bachelorarbeit war es, ein Open-Source-Softwarepaket zusammen zu stellen, das zur computergestützten Tatortrekonstruktion verwendet werden kann. Dazu wurden verschiedene Add-ons für die Open-Source-Software Blender in ihrer Funktionsweise vorgestellt und anschließend miteinander verglichen. Hierbei wurde insbesondere auf Nutzerfreundlichkeit und Eignung zur Tatortrekonstruktion eingegangen. Anschließend wurde das daraus resultierende Softwarepaket zur Erstellung einer Tatortrekonstruktion anhand eines Fallbeispiels verwendet.
Die vorliegende Arbeit befasst sich mit der Analyse von bestehenden Konzepten zur Nutzung Prozeduraler Content Generierung in Games, sowie mit einer aus der Analyse resultierenden Bewertung dieser. Durch eine Aufschlüsselung von Konzepten veröffentlichter Games und algorithmischer Ansätze wird ermittelt, welche Möglichkeiten für die Entwicklung von Games bestehen und wie computergesteuerte Generierung als Werkzeug das künstlerisch-handwerkliche Produkt des Entwicklers erweitern kann.
Zur Analyse stehen neun repräsentative Games, die Prozedurale Content Generierung nutzen, sowie fünf algorithmische Konzepte, mit deren Hilfe Content prozedural generiert werden kann. Die Ergebnisse von Analyse und Bewertung von Games und Algorithmen belegen die Bedeutung Prozeduraler Content Generierung als Werkzeug zur Erweiterung des menschlichen Schaffensvermögens. Untersuchte Konzepte werden ergänzend zu einem Kompendium mit weiteren Methoden und Literaturhinweisen entwickelt.
Das Testen von Software ist unabdingbar und wird nicht nur für Desktop Applikationen, sondern auch für Applikationen auf mobilen Geräten benötigt. Der Prozess des Testens ist aufwändig. Es gibt durch künstliche Intelligenz gestützte Lösungen, welche Systemtests zu großen Teilen eigenständig generieren und dem Entwickler das Testen erleichtern, zum Beispiel das AI4Test Projekt der Systems Multimedia Solutions GmbH.
Das Ziel dieser Bachelorarbeit besteht darin, das AI4Test Projekt zu analysieren und die bestehende Struktur so zu erweitern, dass iOS-Geräte neben Android und Desktop Geräten unterstützt werden. Dabei wird eine generalisierte Schnittstelle zur Interaktion mit Geräten geschaffen.
Das Ziel der Bachelorarbeit wird erreicht. Das AI4Test Projekt wird vorgestellt, die Schnittstelle generalisiert und die Plattform iOS wird prinzipiell unterstützt.
Die vorliegende Arbeit beschäftigt sich mit der Analyse von
Festplattenverschlüsselungssoftware. Dabei werden BitLocker von Microsoft, FileVault von Apple unter MacOS und LUKS unter Linux betrachtet. Des Weiteren wird die Verschlüsselung Data Protection der iPhones und Android Encryption von Googles Betriebssystem analysiert. Bei der Untersuchung werden die verwendeten kryptographischen Algorithmen, die Schlüsselhierarchie und hardwarebasierenden Technologien behandelt. Zudem werden Angriffsmöglichkeiten präsentiert, die bei einer forensischen Analyse verwendet werden können, um die Verschlüsselung zu umgehen.
Die vorliegende Arbeit befasst sich mit einer Verbesserung des Produktverwaltungsprozesses eines Magento Onlineshops sowie einer verbesserten Bestellverarbeitung und dessen Integration zu Unternehmenssystemen. Mögliche Optimierungsansätze werden anhand der System-landschaft des Unternehmens XECURIS GmbH & Co. KG aufgezeigt. Unternehmen sind darum bemüht, Workflows möglichst effektiv und mit geringem Zeitaufwand zu gestalten. Insbesondere Unternehmen im IT-Umfeld sind darauf angewiesen, dass komplexe Geschäftsabläufe automatisiert und fehlerfrei abgearbeitet werden. Ziel der Arbeit ist es, Schwächen an der bestehenden Infrastruktur des Unternehmens zu analysieren, Optimierungsansätze zu entwickeln sowie Ansätze zu deren Implementation aufzuzeigen.
Die vorliegende Arbeit beschäftigte sich mit einer Analyse von Methoden des maschinellen Lernens, mit Hinblick auf ihre unterstützende Wirkung für den intralingualen Übersetzungsprozess von deutschen standardsprachlichen zu Leichte Sprache Texten. Für diesen Zweck wurde ein Vergleich von relevanten Methoden, in diesem Fall die der statistischen maschinellen Übersetzung und die der neuronalen maschinellen Übersetzung aus dem Bereich des maschinellen Lernens und des Natural Language Processing aufgestellt. Dabei wurde der potenzielle Funktionsumfang, die Voraussetzungen sowie die Implementierbarkeit verglichen. Das Ergebnis dieses Vergleiches war es das, dass Potenzial durchaus gegeben ist mittels dieser Methoden den Übersetzungsprozess zu unterstützen. Jedoch bedingt das Fehlen eines Textkorpus für deutsche Standard Sprache und ein dazugehöriger Textkorpus der Leichten Sprache, das diese Methoden nicht implementiert, wurden konnten. Es konnten drei Funktionen umgesetzt werden, die den Übersetzungsprozess unterstützen. Zum einen die Funktion für die Anzeige von gebräuchlicheren Synonymen von Wörtern, eine Funktion für die automatische Generierung von
Zusammenfassungen und eine Funktion für Anzeige von Umformulierungen für Zahlen aus den Bereichen hohe Zahlen, alte Jahreszahlen und Prozent Zahlen. Die Evaluation der Funktionen mittels einer zufällig generierten Wortliste und ausgewählter Nachrichten für die Zusammenfassung und Zahlenbereiche ergab. Das diese Funktionen eine unterstützende Wirkung haben, jedoch stark fehleranfällig sind.
Im Rahmen der zwölfwöchigen Bearbeitungszeit wurde in dieser Bachelorarbeit die Analyse und das Zeitmanagement von Routineparameter in unserem Labor, labopart – Medizinische Laboratorien in Chemnitz, getätigt. Ziel war es durch statistische Erfassungen und intensive Mitarbeit, die Notwendigkeit der Anschaffung neuer Analyzer sowie weitere Optimierungsgründe finden und beschreiben zu können.
Der Einsatz von künstlicher Intelligenz soll in der Zukunft auch die Verbrechensaufklärung unterstützen. Ein Teilgebiet dessen ist die Bewegungsanalyse von Menschen. Ein wichtiger Aspekt dabei ist die Verformung und Bewegung der Wirbelsäule, mit der Frage, wie viele Wirbel als digitale Knochen einzeln benötigt werden, um eine Bewegung noch möglichst natürlich und anatomisch korrekt darstellen zu können. Diese Arbeit befasst sich mit der Reduktion der Wirbelsäule bzw. einzelner Wirbel anhand der Erstellung und Posierung von 3DSkeletten, welche je über anders zusammengefasste Wirbel verfügen.
Hass und Hetze im Netz haben in den letzten Jahren stetig zugenommen. Vor allem in den sozialen Medien sind Anfeindungen, Hass und Hetze immer dominanter geworden. Dies stellt auch die Strafverfolgungsbehörden vor neue Aufgaben. Um Verfasser von Hasskommentaren über soziale Netzwerke effektiver identifizieren zu können, nehmen Polizei und Justiz seit einiger Zeit die OSINT-Recherche (Open Source Intelligence) zu Hilfe. Hierfür durchsuchen die Ermittler digital das Profil oder die Profile der Verfasser von Hasskommentaren und sichern Informationen, welche zur Identifizierung der Personen führen können. Diese Arbeit soll aufzeigen, wie die OSINT-Recherche im Vergleich zu den Standardermittlungen einzuordnen ist. Außerdem soll untersucht werden, wie Hasskommentare im Netz klassifiziert werden können und welche Art von Informationen die Nutzer freiwillig im digitalen Raum veröffentlichen.
Die Einführung eines IT-Notfallmanagement kann auf freiwilligen Basis oder durch rechtliche Verpflichtungen erfolgen. Hierbei ist die Verwendung von etablierten Standards und Normen gerade für kleine und mittelständische Unternehmen (KMU) empfehlenswert, aber herausfordernd. In der vorliegenden Bachelorarbeit werden einschlägige gesetzliche Verpflichtungen für KMU betrachtet. Es wird sodann auf bekannte Normen und Standards des IT-Notfallmanagements eingegangen. Mit einer selbstentwickelten Methode werden diese auf ihre KMU-Tauglichkeit geprüft. Das Ziel besteht darin, den verpflichteten KMU den für sie geeignetsten der betrachten Standards und Normen aufzuzeigen.
Die Analyse von Logdateien bietet in der Mobil-Forensik die Möglichkeit herauszufinden, wann welche Aktionen am Handy stattgefunden haben. Das Thema dieser Bachelorarbeit ist die Analyse bestimmter Protokolldateien unter Android. Der Schwerpunkt liegt in der Untersuchung der Ordner usagestats, recent_images und com.whatsapp, welche auf der Datenpartition liegen. In der Zielfragestellung dieser Studie gilt es festzustellen, ob die Protokolldateien in den jeweiligen Ordnern einen Hinweis auf die letzten Aktivitäten des Nutzers geben. Da sich bisher wenige Studien genauer mit der Protokollierung dieser Logdateien auseinandergesetzt haben, werden zu diesem Zwecke verschiedene Szenarien mit einem Android-Smartphone durchgeführt, um zu verstehen, was in den jeweiligen Dateien protokolliert wird. Dazu werden dieselben Szenarien auf drei unterschiedlichen Betriebssystemversionen getestet, um mögliche Unterschiede festzustellen und wesentliche Rückschlüsse für die Forensik zu folgern. Es ist zu beobachten, dass sich einige der untersuchten Dateien zur Beantwortung der Ausgangsfrage eignen, während andere Protokolldateien eher als kritisch zu betrachten sind.
Die vorliegende Arbeit befasst sich mit der grafischen Darstellung und dem Vergleich von Erzählstrukturen in modernen Computerspielen. Über eine empirische Analyse wird ermittelt, wie die jeweiligen Spiele aufgebaut sind und wo es zwischen diesen und ihren Genre Gemeinsamkeiten und Unterschiede gibt. Zur Analyse standen 34 Spiele aus 17 Subgenre und fünf Hauptgenre. Von allen Spielen wurde je ein Modell angefertigt und diese untereinander verglichen. Dabei wurde nach Gemeinsamkeiten in der Art und dem Aufbau der Strukturen gesucht, um so die Frage zu beantworten ob jedes Spiel, jede Art von Geschichte erzählen kann oder ob deren Erzählung abhängig ist von dem jeweiligen Genre des Spieles
In der regenerativen Medizin, insbesondere beim Tissue Engineering, spielt die natürliche extrazelluläre Matrix eine große und immer bedeutsamere Rolle. Ein wichtiger Schritt für die medizinische Anwendung ist die Probenvorbereitung. Um die genaue Zusammensetzung des fertigen Produkts bestimmen zu können, muss eine einheitliche Methode für die Extraktion der Bestandteile zur Verfügung stehen. Ein anderer Teil der Probenvorbereitung ist die Dezellularisierung. Um bei der Anwendung in der regenerativen Medizin Abstoßungsreaktionen zu vermeiden, sollen die Zellen des zur Herstellung des Produkts verwendeten Gewebes nahezu vollständig entfernt werden. In dieser Arbeit wurde eine Methode zur Extraktion der extrazellulären Matrix optimiert und etabliert. Zusätzlich wurden verschiedene Dezellularisierungsansätze für die Gewebe untersucht. Die Ergebnisse zeigen, dass eine Extraktion mit dem GuHCl-Puffer für 24 beziehungsweise 48 h gute Ergebnisse bei der anschließenden Evaluation mittels Massenspektrometrie mit sich bringt. Allerdings ist der Erfolg der Extraktion stark gewebeabhängig. Für die Dezellularisierung hat sich die Anwendung des pH-WechselVerfahrens als wirksam erwiesen. Jedoch konnten mit Hilfe der gewählten Bedingungen die bestehenden Grenzwerte für eine erfolgreiche Dezellularisierung nicht erreicht werden.
Das Berechtigungssystem ist ein grundlegender Sicherheitsmechanismus der Android-Plattform. Diese Arbeit widmet sich diesem im Kontext der speziellen Bedrohung durch Android-Trojaner, welche durch die Modifikation legitimer Applikationen erstellt werden. Unter den Fragestellungen, inwiefern Android-Trojaner Systemberechtigungen benötigen und wie sie diese als trojanisierte Applikationen auf Applikationsebene erhalten können, werden die beiden Aspekte zusammengeführt und untersucht. Dazu erfolgt eine Analyse der Funktionsweise des Berechtigungssystems in aktuellen AndroidVersionen, welche sich auf die Dokumentation, den Android-Quelltext und praktische Versuche stützt.
Neben bestehender Literatur, die zur Beantwortung der Fragestellungen herangezogen wird, ist die Analyse der Verwendung von Berechtigungen in den Open-Source Trojanern AndroRAT und dem Metasploit-Android-Payload Teil der Arbeit. Die beiden Schadprogramme werden außerdem für die Trojanisierung existierender Applikationen verwendet. Dabei werden Möglichkeiten aufgezeigt, wie bei der Modifikation einer legitimen Applikation Berechtigungsanfragen hinzugefügt werden können. Zudem wird gezeigt, wie die Manipulation einer Kompatibilitätsangabe im Rahmen der Trojanisierung zu dem Erhalt der Berechtigungen führt.
Die vorliegende Arbeit beschäftigt sich mit der Analyse, Konzeption, Implementation und Evaluation eines dezentralen Feedback-Systems für die Blockchain Academy Mittweida. Es wurde nach einer Lösung gesucht, das Feedback für die angebotenen Kurse auf der Seite der Blockchain Academy Mittweida erfassen zu können. Dabei sollte die Anonymität des Nutzers stets gewahrt bleiben, jedoch für den Betreiber die Möglichkeit gegeben sein, unberechtigtes oder doppeltes Feedback erkennen und aussortieren zu können. Diese Anforderungen konnten durch die Linkable-Ring-Signature gewährleistet werden. Bei diesem Verfahren kann der Nutzer stellvertretend für seine Gruppe eine Nachricht signieren. Der Betreiber kann überprüfen, ob eine signierte Nachricht aus dieser Gruppe stammt und ob es bereits eine Nachricht von einem Nutzer eingegangen ist, ohne die Anonymität des Nutzers aufzuheben. Das System wurde möglichst dezentral gestaltet, um keine zentrale Angriffsstelle bieten zu können und sicherheitsrelevante Teile abkapseln zu können. Es wurde ein Smart Contract angelegt, welcher die zum Signieren benötigten öffentlichen Schlüssel der Gruppenmitglieder eines Kurses bereithält. Die zweite Komponente stellt eine Browsererweiterung dar. Mit dieser kann der Nutzer sich in die Feedbackgruppe zu einem Kurs eintragen und seine Schlüsselpaare für die Signatur Generierung speichern lassen. Die dritte Komponente ist ein Plugin auf dem WordPress-System der Blockchain Academy Mittweida, mit welchem das Feedback auf Verknüpfbarkeit geprüft werden kann. Mittels eines funktionalen Testverfahrens und einer Probandengruppe wurde die erarbeitete Lösung untersucht. In beiden Fällen bestand die Lösung die an diese gestellten Anforderungen und wurde positiv von der Probandengruppe aufgenommen. Es wurde sich mehrheitlich für die vorgestellte Lösung und gegen eine Lösung mit einem Kennwort, welches der Nutzer eingeben muss, bevor er eine Umfrage ausfüllen kann, entschieden. Im Wintersemester 2022/2023 an der Hochschule Mittweida könnte die Anwendung zusammen mit dem Masterstudiengang Blockchain & Distributed Ledger Technologies (DLT) in einem größeren Praxistest eingesetzt und weiter erprobt und verbessert werden.
Analyse, Strukturierung und digitale Transformation von Patientendaten in der humanitären Hilfe
(2018)
Die vorliegende Arbeit befasst sich mit der Analyse der Arbeitsabläufe in mobilen Kliniken der humanitären Hilfe, um die Prozesse und die darin entstehenden Patientendaten digital zu transformieren. Zur Umsetzung werden zwei Ansätze verfolgt. Dabei handelt es sich einerseits um die Migration der Daten in ein am Markt verfügbares System und andererseits den Weg der Eigenentwicklung. Dazu werden nach Betrachtung der Grundlagen geeignete Komponenten ausgewählt und Konzepte für Datenbank und Online-Anwendung erstellt. Im Anschluss werden die Konzepte umgesetzt und mögliche Erweiterungen angeschnitten.
Cancer is one of the main causes of death in developed countries, and cancer treatment heavily depends on successful early detection and diagnosis. Tumor biomarkers are helpful for early diagnose. The goal of this discovery method is to identify genetic variations as well as changes in gene expression or activity that can be linked to a typical cancer state.
First, several cancer gene signaling pathways were introduced and then combined. 27 candidate genes were selected, through the analysis of several data sets in the GEO database, a few expression difference matrices were established. Those candidate genes were tested in the matrices and found five genes PLA1A, MMP14, CCND1, BIRC5 and MYC that have the potential to be tumor biomarkers. Two of these genes have been further discussed, PLA1A is a potential biomarker for prostate cancer, and MMP14 can be considered as a biomarker for NSC lung cancer.
Finally, the significance of this study and the potential value of the two genes are discussed, and the future research in this direction is a prospect.
The Blockchain is a technology which has the capabilities to change the way, the world operates. As promising as this may be, there are still many challenges which do not exist or are way simpler to solve in conventional software solutions. Services which are offered over the blockchain suffer from so called Block-confirmation-times where the customer simply has to wait till the transaction is confirmed. In this paper possible solutions to that problem will be examined and challenges that arise from the specific criteria of the Ethereum Blockchain will be analyzed.
Machine learning models for timeseries have always been a special topic of interest due to their unique data structure. Recently, the introduction of attention improved the capabilities of recurrent neural networks and transformers with respect to their learning tasks such as machine translation. However, these models are usually subsymbolic architectures, making their inner working hard to interpret without comprehensive tools. In contrast, interpretable models such learning vector quantization are more transparent in the ability to interpret their decision process. This thesis tries to merge attention as a machine learning function with learning vector quantization to better handle timeseries data. A design on such a model is proposed and tested with a dataset used in connection with the attention based transformers. Although the proposed model did not yield the expected results, this work outlines improvements for further research on this approach.
Analysis of Continuous Learning Strategies at the Example of Replay-Based Text Classification
(2023)
Continuous learning is a research field that has significantly boosted in recent years due to highly complex machine and deep learning models. Whereas static models need to be retrained entirely from scratch when new data get available, continuous models progressively adapt to new data saving computational resources. In this context, this work analyzes parameters impacting replay-based continuous learning approaches at the example of a data-incremental text classification task using an MLP and LSTM. Generally, it was found that replay improves the results compared to naive approaches but achieves not the performance of a static model. Mainly, the performances increased with more replayed examples, and the number of training iterations has a significant influence as it can partly control the stability-plasticity-trade-off. In contrast, the impact of balancing the buffer and the strategy to select examples to store in the replay buffer were found to have a minor impact on the results in the present case.
Stability of control systems is one of the central subjects in control theory. The classical asymptotic stability theorem states that the norm of the residual between the state trajectory and the equilibrium is zero in limit. Unfortunately, it does not in general allow computing a concrete rate of convergence particularly due to algorithmic uncertainty which is related to numerical imperfections of floating-point arithmetic. This work proposes to revisit the asymptotic stability theory with the aim of computation of convergence rates using constructive analysis which is a mathematical tool that realizes equivalence between certain theorems and computation algorithms. Consequently, it also offers a framework which allows controlling numerical imperfections in a coherent and formal way. The overall goal of the current study also matches with the trend of introducing formal verification tools into the control theory. Besides existing approaches, constructive analysis, suggested within this work, can also be considered for formal verification of control systems. A computational example is provided that demonstrates extraction of a convergence certificate for example dynamical systems.
Analysis of the Forensic Preparation of Biometric Facial Features for Digital User Authentication
(2023)
Biometrics has become a popular method of securing access to data as it eliminates the need for users to remember a password. Although exploiting the vulnerabilities of biometric systems increased with their usage, these could also be helpful during criminal casework.
This thesis aims to evaluate approaches to bypass electronic devices with forged faces to access data for law enforcement. Here, obtaining the necessary data in a timely manner is critical. However, unlocking the devices with a password can take several years with a brute force attack. Consequently, biometrics could be a quicker alternative for unlocking.
Various approaches were examined to bypass current face recognition technologies. The first approaches included printing the user's face on regular paper and aimed to unlock devices performing face recognition in the visible spectrum. Further approaches consisted of printing the user's infrared image and creating three-dimensional masks to bypass devices performing face recognition in the near-infrared. Additionally, the underlying software responsible for face recognition was reverse-engineered to get information about its operation mode.
The experiments demonstrate that forged faces can partly bypass face recognition and obtain secured data. Devices performing face recognition in the visible spectrum can be unlocked with a printed image of the user's face. Regarding devices with advanced near-infrared face recognition, only one could be bypassed with a three-dimensional face mask. In addition, its underlying software provided evidence about the demands of face recognition. Other devices under attack remained locked, and their software provided no clues.
Abstract nicht vorhanden
In this thesis, we focus on using machine learning to automate manual or rule-based processes for the deduplication task of the data integration process in an enterprise customer experience program. We study the underlying theoretical foundations of the most widely used machine learning algorithms, including logistic regression, random forests, extreme gradient boosting trees, support vector machines, and generalized matrix learning vector quantization. We then apply those algorithms to a real, private data set and use standard evaluation metrics for classification, such as confusion matrix, precision, and recall, area under the precision-recall curve, and area under the Receiver Operating Characteristic curve to compare their performances and results.
As new sensors are added to VR headsets, more data can be collected. This introduces a new potential threat to user privacy. We focused on the feasibility of extracting personal information from eye-tracking. To achieve this, we designed a preliminary user study focusing on the pupil response to audio stimuli. We used a variation of machine learning models to test the collected data to determine the feasibility of obtaining information such as the age or gender of the participant. Several of the experiments show promise for obtaining this information. We were able to extract with reasonable certainty whether caffeine was consumed and the gender of the participant. This demonstrates the unknown threat that embedded sensors pose to users. A further studies are planned to verify the results.
Die vorliegende Arbeit befasst sich mit den Anforderungen zur Verbesserung der Mitarbeiterzufriedenheit und -effizienz anhand der Webanwendung des SYSTEMHAUS am Neumarkt. Dazu erfolgt die Recherche gängiger Methoden im Bereich der User Experience. Mit den theoretischen Grundlagen wird der aktuelle Entwicklungsstand analysiert. Es erfolgt eine Evaluation, aus welcher ein Problemkatalog erstellt wurde. Kern der Arbeit ist die Erstellung eines Kriterienkataloges mit konkreten Maßnahmen zur Verbesserung der User Experience. Diese Maßnahmen werden mit Hilfe eines Prototyps visualisiert.
Die vorliegende Arbeit befasst sich und formuliert funktionale Anforderungen an die neu zu beschaffende Stationsleittechnik, Fernwirktechnik und Netzleittechnik für den Einsatz im Umspannwerk, Trafostationen und Leitwarten. Des Weiteren
werden Forderungen an die einzusetzenden Komponenten bzw. Systeme hinsichtlich der „IT-Security“ dargelegt.
Seit 2018 befindet sich das Projekt „BuggyTech Engine“ an der Hochschule Mittweida in studentischer Entwicklung. Auf dieser Game Engine soll das von der Autorin konzipierte Spiel „Neon Nova“ laufen, wofür sie ein Game Design Document (GDD) erstellte. Das GDD stellt als grundlegendes Dokument, welches sämtliche relevanten Aspekte eines zu entwickelnden Spiels beschreibt, ein Herzstück in der Videospielentwicklung dar. Es dient als zentrales Werkzeug für das Entwicklerteam, um gemeinschaftlich auf ein klares Ziel hinzuarbeiten. In der klassischen Softwareentwicklung werden Anforderungen und Spezifikationen an eine zu entwickelnde Software detailliert in Form eines Lastenheftes verschriftlicht, welches für die Entwickler ähnliche Funktionen hat, wie das GDD. Diese Konzepte werden, neben der Erarbeitung zusätzlicher Wissensgrundlagen, zunächst dargestellt und auf Inhalte, sowie Vor- und Nachteile untersucht. Im Hauptteil dieser Arbeit wird die Eignung eines GDD als Grundlage für die Anforderungsanalyse einer Game Engine am Beispiel von Neon Nova und der BuggyTech Engine untersucht. Der Prozess der Erstellung des Lastenheftes wird dargelegt und die Ergebnisse vorgestellt. Zudem wurden Datenmodelle und UI Layouts für die spezifische Anwendung in de BuggyTech Engine konzipiert. Abschließend wird ein Fazit über den Prozess und die Geeignetheit der aufeinander aufbauenden Arbeitsweise der beiden Dokumente gezogen, welche normalerweise nicht miteinander in Kontakt kommen. Das Ergebnis der Arbeit ist ein vollständiges, für die Weiterentwicklung der BuggyTech Engine nutzbares Lastenheft.
Die Dokumentation eines kriminalistisch relevanten Tatortes ist eines der wichtigsten Bestandteile der forensischen Untersuchung. Dafür dienen heute unter anderem Laserscanner. In dieser Arbeit wird ein Ablauf für die Erstellung eines 3D-Modells aus Laserscannerdaten von der Erstellung der Scandaten bis zur Verarbeitung dieser in der Software auch anhand von Fallbeispielen erläutert. Dafür dienen FARO Laserscanner Focus 3D X 130 und die Software FARO SCENE. Außerdem werden die entstandenen Modelle evaluiert und der Aspekt des Zeitaufwandes betrachtet.
Im Rahmen dieser Arbeit wird das ZigBee Protokoll genauer untersucht. Dabei wird gezielt auf die häufigsten Angriffsmethoden eingegangen, welche anschließend bewertet werden. Die Bewertung erfolgt mittels eines in der Arbeit vorgestellten Bewertungsschemas mit einer anschließenden Einordnung in eine Bedrohungsmatrix. Zuletzt werden einige der Attacken in einem Experiment durchgeführt, um die theoretische Einordnung zu überprüfen.
Die Bachelorarbeit umfasst eine Auseinandersetzung mit dem aktuellen Straftatphänomen Cybertrading. In Zusammenarbeit mit Beteiligten des Strafverfolgungsprozesses und entsprechender Literatur wird das Phänomen aus den Gesichtspunkten der Wirtschaft, des Bankwesens, des Rechts, der Psychologie und der Polizei näher beleuchtet. Mithilfe dieser Erkenntnisse werden die Problemfelder im Umgang mit der Betrugsstraftat aufgedeckt.
Anlegen und Charakterisieren von Anreicherungskulturen aus Oberflächengewässern im Norden Finnlands
(2020)
Es wurden Wasserproben aus Finnland biochemisch charakterisiert. So wurden EcoPlates von BIOLOG benutzt, um die Wasserproben von heterotrophen mikrobiellen Gemeinschaften zu charakterisieren und klassifizieren. Zudem wurden Anreicherungskulturen erstellt und auf ihre Verwertung von Stickstoffquellen durch Phänotyp Mikroarray und auf ihre Zellwandzusammensetzung mit Gram-Färbung untersucht. Die daraus resultierenden Ergebnisse werden für die Bestimmung und Charakterisierung von den Anreicherungskulturen verwendet.
Das Ziel dieser Bachelorarbeit ist die Darstellung von Techniken zur Verfolgung von Transaktionen und Entitäten auf der Bitcoin Blockchain. Die zugrundeliegende Forschungsfrage lautet wie folgt:
Welche Aussagekraft und Grenzen haben Heuristiken und Analysemethoden zur Nachverfolgung von Bitcointransaktionen und wie wirken sie sich auf deren Anonymität aus?
Zur Beantwortung der Forschungsfrage wird eine Literaturrecherche durchgeführt. Die Funktionsweise der Methoden wird dargestellt, Stärken und Schwächen der Methoden werden aufgezeigt und gegebenenfalls Verbesserungsvorschläge gemacht.
Es zeigt sich, dass die Anonymität des Bitcoin-Systems aus verschiedenen Richtungen eingeschränkt werden kann. Die vorgestellten Analysemethoden haben jedoch ihre Grenzen und können die Anonymität des Bitcoinsystems nicht endgültig überwinden.
Letztendlich bleibt festzuhalten, dass die Anonymität eines Nutzers von seiner Bitcoin-Nutzung und der Nutzung seines Umfelds abhängt. Ein bewusster, anonymer Umgang mit der Kryptowährung ist die Grundlage für eine solide Privatsphäre.
Das Ziel der vorliegenden Arbeit war es, den Deliktbereich Cybercrime auf Vorhersagbarkeit seiner Verbrechensrate zu testen. Diese Testung erfolgte, indem nach Trends und Gesetzmäßigkeiten innerhalb der bisherigen Geschehnisse des
Deliktbereichs gesucht wurde, wozu Daten der Polizeilichen Kriminalstatistik herangezogen wurden. Die Suche nach Trends und Gesetzmäßigkeiten erfolgte, indem versucht wurde, auf Basis eines Hidden-Markov-Modells diejenigen Parameter zu identifizieren, anhand derer sich die aussagekräftigsten Gesetzmäßigkeiten bilden ließen. Die Arbeit basiert auf PUX, eine vom Autor erstellte Webtechnologie-basierte Anwendung, mit der PKS-Daten gespeichert und mit Hilfe von Visualisierung und Simulation erforscht werden können.
Ziel dieser Arbeit ist es, an ausgewähltem Material aus einer Skelettsammlung eine morphologische Geschlechtsbestimmung am Os ilium (Darmbein), einem Teil des Os coxae (Hüftbein), durchzuführen und deren Zuverlässigkeit zu überprüfen. Um die Bestimmung des Geschlechts sicherer zu machen, werden weitere morphologische Analysen am Cranium sowie an den Ossa coxae und eine osteometrische Analyse am Femur durchgeführt und mit den Ergebnissen der Geschlechtsbestimmung am Os ilium verglichen.
Weltweit sind oberflächliche Pilzinfektionen weit verbreitet. Diese äußern sich in Rötungen, Schuppungen und Juckreiz und sind belastend für jeden Betroffenen. In dieser Arbeit werden Pilzproben aus Bangladesch untersucht, um diese auf molekularer Ebene zu identifizieren. Dazu wurden Methoden, wie Kultivierung und Sequenzierung angewandt. Weiterhin wurden alle Kulturen auf Antimykotika getestet, um bei möglichen Resistenzen eine patientenspezifische Behandlung ermöglichen zu können. Darüber hinaus wurde ermittelt, durch welche genetischen Änderungen die Resistenzen verursacht werden. Dies erfolgte durch die Sequenzierung bestimmter Gene der Dermatophyten-DNA.
Die Bachelorarbeit befasst sich mit dem Nachweis des Alkoholkonsummarkers Ethylglucuronid (EtG) auf Leichenhaarproben sowie der Korrelation der
Alkoholkonzentration in verschiedenen postmortalen Muskelgewebsproben. Ein besonderes Augenmerk gilt dabei dem Fäulniszustand der Leichen. Die Proben wurden im Institut für Rechtsmedizin der Charité vor bzw. während der Obduktion gewonnen. Die chemisch-toxikologischen Untersuchungen erfolgten für EtG mittels eines LC-MS/MS-Messsystems. Die Konzentrationen von Ethanol und Fäulnisalkoholen wurden mittels zwei differenten GC-FID-Messsystemen gemessen. Die Analyse der gemessenen Konzentrationen erfolgt mittels statistischer Methoden. Dazu zählen die Auswertung der Spannweiten der EtG-Konzentrationen, auch in Abhängigkeit der verschiedenen möglichen Entnahmeorte von Haarproben am Körper inkl. einer kritischen Hinterfragung der Grenzwerte der Society of Hair Testing. Auch für die Korrelation der Alkoholkonzentrationen in postmortalen Muskelgewebsproben werden statistische Methoden zur Überprüfung herangezogen. In beiden zu untersuchenden Matrices wird auf den Einfluss des Fäulniszustandes bzw. von Fäulnisflüssigkeit eingegangen und dieser kritisch bei der Auswertung der Messergebnisse mit einbezogen. So soll es möglich werden, eine Aussage darüber zu treffen, inwieweit die Messergebnisse in den untersuchten Matrices durch postmortale Prozesse beeinflusst werden.
Fehlende Erholung von Stress kann langfristig zu gesundheitlichen und psychologischen Problemen führen. Präventivmaßnahmen sind eine Notwendigkeit geworden, um Depressionserkrankungen durch wachsenden Leistungsdruck in unserer neoliberalen Gesellschaft vorzubeugen. Die vorliegende Arbeit beschäftigt sich mit der Entwicklung und Evaluation eines Computerspiels zur Förderung der eigenen Selbsteinschätzung von Stress und zur Unterstützung von Selbsterkenntnis, im Sinne des bewussten Umgangs mit Stresssituationen. Computerspielen wird hierbei als präventive Maßnahme eingesetzt.
In der Arbeit werden zwei weit verbreitete Computer-Forensik-Tools verglichen und bewertet. X-Ways Forensic und Autopsy wurden als beispielhafte Vertreter der Kategorien "proprietäre Tools" sowie "freie Tools" gewählt. Es werden anhand eines Kriterienkatalogs und verschiedener Test-Szenarien die einzelnen Funktionen systematisch evaluiert.
Die tägliche Arbeit von Softwareentwicklern ist es, Software so zu schreiben, dass sie auch in Zukunft so schnell und flexibel entwickelt werden kann wie am ersten Tag. Dafür stehen ihnen zahlreiche Methoden und Tools zur Unterstützung zur Verfügung. Jedoch stellt die Einrichtung und erstmalige Anwendung solcher Hilfsmittel oftmals eine Hürde dar, vor allem, wenn man selbst in diesem Bereich noch keine Erfahrung gesammelt hat. In dieser Arbeit wird dieser Ansatz durch die Entwicklung und Anwendung einer statischen Code-Analyse und Modultests auf eine bestehende NodeJS-Software verfolgt. Diese Software ist Teil einer übergeordneten Projektinfrastruktur, auf deren Komponenten diese Testverfahren später ebenfalls angewendet werden sollen. Für die Evaluation werden etablierte Tools zur Implementierung und Automatisierung der Testprozesse ausgewählt. Der Vergleich dieser Tools erfolgt dann auf der Grundlage gewichteter Kriterien die anhand einer subjektiven Einschätzung bewertet werden. Zunächst werden die Tools JSLint, JSHint und ESLint für die statische Codeanalyse evaluiert. Dann werden Unit-Tests entworfen und definiert und anschließend mit den Unit-Test-Frameworks Mocha, Jest und Vitest implementiert. Schließlich werden die Tests mit einem CI-Tool automatisiert. Aus der Vielzahl an Plattformen wurden BitBucket Pipelines, CirleCI und Buddy als Testobjekte ausgewählt. Es stellte sich heraus, dass eine Vielzahl projektspezifischer Faktoren bei der Auswahl der CI Tools eine Rolle spielen. Die Evaluierung der Tools lieferte eine solide Grundlage für weitere Tests und damit Vertrauen und Sicherheit in die Zukunft von EnjineIO. Diese Arbeit ist besonders für Softwareentwickler interessant, die noch keine Erfahrung mit Softwaretests gemacht haben und einen Einblick in dieses Thema erhalten möchten. Zudem dient sie dazu, einen Einblick in die Besonderheiten der genannten Softwaretest-Tools zu erhalten, wenn ein Team den Wechsel auf eines davon plant.
Ziel dieser Arbeit ist das Evaluieren der Klassifikationsfähigkeit eines MVCNN-Verfahrens am Teilproblem der Klassifikation von prozedural generierten, idealisierten Darstellungen von OCT-Scans. Zu diesem Zweck wird ein Tool für das Erstellen ¨solcher Szenen entwickelt sowie ein Algorithmus zur Volumenberechnung von sich überschneidenden Meshes, welcher für das automatische Labeling dieser Szenen verwendet wird.
Many companies use machine learning techniques to support decision-making and automate business processes by learning from the data that they have. In this thesis we investigate the theory behind the most widely used in practice machine learning algorithms for solving classification and regression problems.
In particular, the following algorithms were chosen for the classification problem: Logistic Regression, Decision Trees, Random Forest, Support Vector Machine (SVM), Learning Vector Quantization (LVQ). As for the regression problem, Decision Trees, Random Forest and Gradient Boosted Tree were used. We then apply those algorithms to real company data and compare their performances and results.
Assessment of COI and 16S for insect species identification ti determine the diet of city bats
(2023)
Despite the numerous benefits of urbanization to human living conditions, urbanization has also negatively affected humans, their environment, and other organisms that share urban habitats with humans. Undoubtedly adverse while some wild animals avoid living in urban areas, others are more tolerant or prefer life in urban habitats. There are more than 1,400 species of bats in the world.
Therefore, they have the potential to contribute significantly to the mammalian biodiversity in urban areas. Insectivorous bats species play a key role in agriculture by improving yields and reducing chemical pesticide costs. Using metabarcoding, it is possible to determine the prey consumed by these noctule mammals based on the DNA fragments in their fecal pellets. This study
aimed to evaluate COI and 16S metabarcodes for insect species identification to determine the diet of metropolitan bats. For this purpose, COI and 16S metabarcodes were extracted, amplified, and sequenced from 65 bat feces collected in the Berlin metropolitan areas. Following a taxonomic annotation, I found that 73% of all identified insects could only be detected using the COI method, while 15% could be recovered using the 16S approach. Just 12% of all detected insects were identified simultaneously by both markers. According to this result, COI is more suitable for the taxonomic identification of insects from bat feces. However, given the bias of COI primers, it is recommended to use both markers for a more precise estimation of species diversity. Additionally,based on the insect species identified, I noticed that urban bats fed mainly on Diptera, Coleoptera,and Lepidoptera. The bat species Nyctalus noctula was most abundant in the samples. His diet analysis revealed that 91% of the samples contained the insect species Chironomus plumosus. 14 pest insect species were also found in his diet.
The GeoFlow II experiment aims to replicate Earth’s core dynamics using a rotating spherical container with controlled temperature differences and simulated gravity. During the GeoFlow II campaign, a massive dataset of images was collected, necessitating an automated system for image processing and fluid flow visualization in the northern hemisphere of the spherical container. From here, we aim to detect the special structures appearing on the post processed images. Recognizing YOLOv5’s proficiency in object detection, we apply Yolov5 model for this task.
Durch verschiedene Industriezweige gelangen viele Chemiaklien in die Umwelt und lagern sich dort an. Dabei haben viele dieser Chemikalien für die Umwelt und den Menschen schädliche Nebenwirkungen. Diese sind einerseits von der Exposition der Substanzen und andernseits von Effekten auf den biologischen Kreislauf abhängig.
Um die genauen Auswirkungen dieser Verbindungen beurteilen zu können, ist es jedoch wichtig beide Bereiche zu betrachten. Im Rahmen dieser Arbeit wurde deswegen ein Ansatz entwickelt,mit dem die Daten der Exposition und die Daten der Auswirkungen mit einander verknüpft werden können. Dazu wurden zuerst Chemikalien für die Expositionsdaten und Chemikalien für die Wirkungsdaten bereitstehen aus öffentlich zugänglichen Datenbanken gesammelt. Mit Hilfe der Wirkungsdaten wurden anschließend Neuronale Netze trainiert. Es konnte gezeigt werden, dass mittels dieser Modelle die Auswirkungen auf Umwelt und Mensch für die Expositionschemikalien vorhergesagt werden kann.
Zudem wurden in mehreren Chemical Similarity Maps gezeigt, dass sich verschiedene Chemikaliencluster bilden, welche ähnliche chemische Eigenschaften besitzen. Dadurch könnte es möglich sein anhand der chemischen Ähnlichkeite bestimmte Wirkungsdaten für chemische Stoffe vorherzusagen.
Die vorliegende Arbeit befasst sich mit dem Aufbau einer zentralen Datenbank sowie der Entwicklung eines Webinterfaces. Dazu werden einleitend die nötigen Grundlagen erläutert und die aktuellen Technologien verglichen. Im Hauptteil wird die aktuell eingesetzte Anlagenliste auf Excel-Basis analysiert und Konzepte für die Datenbank und dem Webinterface erstellt. Im Anschluss daran werden die Konzepte umgesetzt und zum Schluss ein Fazit gezogen sowie mögliche zukünftige Entwicklungen angeschnitten.
Die vorliegende Arbeit befasst sich mit der Analyse verschiedener Remoting Verfahren für die Verwendung von Webservices. Hauptziel ist aber, dass auf die Funktionalität der firmeninternen Webservices über einen Request-Handler zugegriffen werden kann. Um nicht bei jeder Anpassung oder Neuerstellung eines Webservice die URLs in den Anwenderprogrammen anpassen zu müssen, soll der Request-Handler die URL des angefragten Webservice ermitteln und eine
Kommunikation zwischen Anwenderprogramm und Webservice aufbauen und den Datenaustausch steuern.
Soziale Medien ermöglichen den öffentlichen Austausch von Nachrichten im digitalen Raum. Viele Personen missbrauchen diese Plattformen jedoch für die Verbreitung von Hass. Die Bestimmung und die Prävention derartiger Kommentare stellt eine große Herausforderung dar. In dieser Arbeit werden Möglichkeiten zur Bestimmung und Prognose von Toxizität als Kennzahl
für die sentimentale Ausdrucksform des Hasses aufgezeigt. Nach der begründeten Auswahl der Perspective API als Werkzeug zur Bestimmung von Toxizität werden mit diesem Werkzeug über 600.000 deutschsprachigen Twitter-Kommentare aus dem Frühjahr 2021 annotiert. Die Annotation bildet die Grundlage für die Untersuchung der Ausbreitung toxischer deutscher Sprache.
Mit Methoden der intelligenten Datenanalyse werden im Datensatz Einflussfaktoren ermittelt, die das Absetzen eines toxischen Kommentars begünstigen. Die gefundenen Einflussfaktoren werden final dazu verwendet, um die Toxizität von Antworten, ohne ein Wissen über deren Inhalt,
mit Hilfe künstlicher Intelligenz zu prognostizieren.
Die vorliegende Arbeit befasst sich mit der Implementation einer Virtual Desktop Infrastruktur (VDI). Dies wird am Beispiel der Tirol Kliniken GmbH dargestellt. Im theoretischen Teil werden die Grundlagen der Virtualisierung und die Komponenten einer VDI betrachtet. Im praktischen Teil findet eine Auswahl und Konzeptionierung einer geeigneten VDI-Lösung für das Beispielunternehmen statt. Nach der Dimensionierung und prototypischen Implementation, erfolgt eine Überprüfung des benötigten Ressourcenbedarfs des VDI-Konzeptes.
Die vorliegende Abschlussarbeit gibt einen Überblick über die Herkunftsbereiche und Eintragspfade von Spurenstoffen, die in den Ab- und Gewässern der Region Chemnitz auftreten. Des Weiteren wird die Effizienz der Zentralen Kläranlage der Stadt Chemnitz hinsichtlich ihrer Eliminationsleistung von Mikroschadstoffen untersucht. Zudem soll die Analyse des Indirekteinleiterkatasters der Stadt aufschließen, inwieweit eine derzeitige Überwachung der Stoffeinträge stattfindet. Während sich der erste Teil der Arbeit mit der Untersuchung vorhandener Daten beschäftigt, wird im weiteren Verlauf eine Maßnahme zur Spurenstoffreduzierung mithilfe einer Aktivkohleadsorption beschrieben und auf ihre Leistung überprüft. Bei der Auswertung der Analyseergebnisse wird deutlich, dass ihre Wirksamkeit von der jeweilig untersuchten Stoffgruppe abhängt.
Mobile-Games haben in den letzten Jahren einen großen Teil des Spielmarktes eingenommen. Viele dieser Mobile-Games greifen auf Free-to-Play-Modelle zurück und betreiben Monetarisierung über Ingame-Purchases und Microtransactions. Damit gewinnt die Player-Retention in diesen Spielen immer weiter an Bedeutung und verschiedene Mechaniken in Spielen sind darauf ausgelegt, die Retention zu steigern. In dieser Arbeit wurden fünf Titel aus dem Mobile-RTS-Genre betrachtet und dabei herausgestellt, dass Spiele dieses Genres stark Energy-Systeme undSkinner-Box-Systeme verwenden und die Spielzeit der Spieler dadurch begrenzen. Es wurde die These aufgestellt, dass sich verlängerte Spielzeiten einzelner Sessions ebenso positiv auf die Retention auswirken können. Daraufhin wurden verschiedene Mechaniken in den Spielen untersucht, die zu einer Verlängerung der Spielzeit führen und deren Effekt auf die betrachteten Spiele. Diese Mechaniken eignen sich ebenso gut zur Generierung von Retention, jedoch sind die in Mobile-RTS etablierten Mechaniken auf eine Begrenzung der Spielzeit ausgelegt. Es wurde als alternative Spiel-Mechanik das Portal-System vorgestellt, das längere Spielzeiten ermöglicht und dadurch positiven Einfluss auf die Retention haben soll. Da es sich nur um eine theoretische Betrachtung handelt, steht hierbei eine praktische Betrachtung noch aus.
Mit Hilfe des Enzyms Kollagenase ist es möglich, ein etabliertes Kollagen-Hydrogel vollständig zu dissoziieren. Welche Auswirkungen dieser Prozess auf die darin befindlichen, 3-dimensionalen L929-Zellen hat, sollte während der Bachelorarbeit untersucht werden. Neben der Beobachtung, ob sich das Hydrogel komplett auflöst, wurden Veränderungen der Zellmorphologie, der Zellzahl und der Zellvitalität dokumentiert. Um die direkte Wirkung des Enzyms auf die Fibroblasten beurteilen zu können, wurden außerdem 2-dimensional kultivierte L929-Zellen mit Kollagenase versetzt und ebenfalls hinsichtlich der bereits genannten Aspekte untersucht.
Das Thema Kinderpornographie ist schon lange immer wieder Fokus der Medien. Erst vor kurzem hat die deutsche Polizei ein internationales Netzwerk, welches Kinderpornographie verbreitete, aufgedeckt und vier Täter festgenommen. [27] Auch die polizeiliche Kriminalstatistik (PKS) verzeichnete im Jahr 2019 und 2020 einen massiven Anstieg des Besitzes, der Herstellung und der Verbreitung von Kinderpornographie. [3, 4] Diese Zustände und Entwicklungen sind erschreckend und zeigen die Relevanz der Arbeit in diesem Themengebiet. Daher befasst sich diese Bachelorarbeit mit der Entwicklung einer unterstützenden künstlichen Intelligenz (K.I.) für die Ermittlungen.
Die vorliegende Arbeit befasst sich mit der Automatisierung des Schreibens von Unit-Tests. Das Hauptziel ist es für den Bereich iOS eine Lösung umzusetzen und diese auszuwerten. Dabei wird der Codegenerator Sourcery verwendet und die Templates für das Generieren der Unit-Tests in den verschiedenen Templatesprachen umgesetzt. Die Umsetzung sowie die verschiedenen Templatesprachen werden ausgewertet, um die Basis für weitere Entwicklung zu schaffen.
Die vorliegende Arbeit dient als Grundlage zur Umsetzung für eine automatisierte Klassifizierung von textuellen Fehlermeldungen. Das Hauptziel ist ein grundlegendes Verständnis für die Herangehensweise zum Aufbau eines maschinellen Lernsystems zu erreichen. Es werden verschiedene Arten des maschinellen Lernens erläutert. Auswahl und Aufbau eines Lernmodells werden von unterschiedlichen Seiten beleuchtet, um einen Überblick der einzelnen Schritte zu gewinnen. Zur Gewährleistung eines praktischen Lösungsansatz wurden bereits erste Tests mit einem ausgewählten Lernmodell durchgeführt.
Die Datenschutzgrundverordnung hat in der Europäischen Union für ein einheitliches Datenschutzrecht gesorgt. Sie fordert unter anderem eine einfache und verständliche Sprache von Datenschutzerklärungen und benennt umfangreiche, inhaltliche Anforderungen. Im Praxisumfeld ist es aber immer noch nicht selbstverständlich, dass Datenschutzerklärungen sich an formalen und inhaltlichen Festlegungen der Datenschutzgrundverordnung und weiterer geltender deutscher Gesetze orientieren. Das in dieser Arbeit erstellte Python-Programm zur automatisierten Analyse von Datenschutzerklärungen kategorisiert Themenabschnitte mit Hilfe einer Stichwortsuche und prüft die Datenschutzerklärung anhand eines festgelegten Katalogs an Testkriterien. Abschließend wird eine Bewertung auf Basis der Form und des Inhalts vorgenommen.
Ein Compiler oder Assembler wandelt Quellcode in ein ausführbares Programm um. Das resultierende Binary besteht aus Befehlen und Ressourcen, wie Bilder, Sounds oder anderen Informationen. Ohne den Ausführungskontext kann jedoch nicht im Vorhinein mit absoluter Sicherheit eine Angabe gemacht werden, bei welchen Bytes es sich um Anweisungen und bei welchen Abschnitten im Programm es sich um Ressourcen handelt. Bei einer Untersuchung oder einem
Dekompilierungsvorgang der binären Datei gestaltet sich diese bzw. dieser ohne vorliegenden Quellcode sehr schwierig. Als Beispiel für eine Von-Neumann-Architektur wurde in dieser Arbeit der Game Boy mit seiner
Sharp-LR35902-CPU gewählt. Mit Banking verwendet die Architektur sowohl historische Technologien, ähnelt aber dennoch sehr den derzeit häufig genutzten x86-64-CPUs von Intel oder AMD. Außerdem bieten die kleinen Programme von maximal zwei Mebibyte die Möglichkeit, auch in ineffiziente Ansätze auszuprobieren. In dieser Arbeit wurde anhand der folgenden sieben Lösungsansätze erläutert, wie man eine Befehl-Ressourcen-Trennung erzielen kann.
Manueller Ansatz (siehe Kapitel 3.1)
Metadaten-Ansatz (siehe Kapitel 3.2)
Alles-Befehle-Ansatz (siehe Kapitel 3.3)
Statistischer Ansatz (siehe Kapitel 3.4)
Emulationsansatz (siehe Kapitel 3.5)
Programmflussansatz (siehe Kapitel 3.6)
Brute-Force-Ansatz (siehe Kapitel 3.7)
Insbesondere wurden drei automatisierte bzw. teilautomatisierte Ansätze implementiert und anschließend
mit einer manuellen Trennung als Referenzwert verglichen. Dabei erzielte, bei dem verwendeten Kontrollprogramm ”StefaN”, der Programmflussansatz ein gutes Ergebnis.
Das mittels Emulationsansatz gewonnene Ergebnis schloss etwas schlechter ab. Der Brute-Force-Ansatz scheiterte an exponentiellen Wachstum und erzielte damit das schlechteste Ergebnis. Eine korrekte Trennung konnte nur mit dem manuellen Ansatz erreicht werden. In dieser Arbeit konnte keine vollautomatisierte Lösung für das Problem gefunden werden. Grundsätzlich kann festgehalten werden, dass eine Befehl-Ressourcen-Trennung einer ausführbaren Binärdatei auch in Zukunft eine Herausforderung darstellt.