Refine
Document Type
- Bachelor Thesis (703)
- Master's Thesis (180)
- Diploma Thesis (56)
Year of publication
Keywords
- Computerforensik (56)
- Softwareentwicklung (52)
- Computersicherheit (48)
- Videospiel (45)
- Maschinelles Lernen (44)
- Blockchain (25)
- Computerspiel (23)
- Datensicherung (21)
- Virtuelle Realität (18)
- Programmierung (17)
- Algorithmus (16)
- Forensik (14)
- Künstliche Intelligenz (14)
- Android <Systemplattform> (13)
- Fotogrammetrie (13)
- Daktyloskopie (12)
- Neuronales Netz (12)
- Altersbestimmung (11)
- Gerichtliche Wissenschaften (10)
- Vektorquantisierung (10)
- Blut (9)
- Computerkriminalität (9)
- Kryptologie (9)
- Virtuelle Währung (9)
- App <Programm> (8)
- Bildverarbeitung (8)
- Digitalisierung (8)
- E-Learning (8)
- Molekularbiologie (8)
- Software (8)
- Biometrie (7)
- Biotechnologie (7)
- Cloud Computing (7)
- DNS (7)
- Deep learning (7)
- Malware (7)
- Mobiles Endgerät (7)
- Social Media (7)
- Visuelle Wahrnehmung (7)
- Bioinformatik (6)
- Dreidimensionale Rekonstruktion (6)
- Dreidimensionales Modell (6)
- Graphentheorie (6)
- Internet der Dinge (6)
- Schnittstelle (6)
- CAN-Bus (5)
- Datenbank (5)
- Datenschutz (5)
- Erweiterte Realität <Informatik> (5)
- Genetischer Fingerabdruck (5)
- Kinderpornografie (5)
- Lernendes System (5)
- Projektmanagement (5)
- Rechnernetz (5)
- Rechtsmedizin (5)
- Rekonstruktion (5)
- Soziales Netzwerk (5)
- Spiel-Engine (5)
- Tatrekonstruktion (5)
- Ultraviolettspektroskopie (5)
- Vektor (5)
- Visualisierung (5)
- Benutzerfreundlichkeit (4)
- Bildgebendes Verfahren (4)
- Bitcoin (4)
- CRISPR/Cas-Methode (4)
- Cluster-Analyse (4)
- Cytologie (4)
- Daktylogramm (4)
- Datenbanksystem (4)
- Deutschland (4)
- Gerichtliche Entomologie (4)
- Geschlechtsbestimmung (4)
- Gesichtserkennung (4)
- Instant Messaging (4)
- Internet (4)
- Lernsoftware (4)
- Objekterkennung (4)
- Tatort (4)
- Zeitreihe (4)
- Anwendungssoftware (3)
- Autonomes Fahrzeug (3)
- Beweismittel (3)
- Bildmaterial (3)
- Biochemie (3)
- Biogasgewinnung (3)
- Biomarker (3)
- Blutspur (3)
- Blutuntersuchung (3)
- DNA Barcoding (3)
- Datenmanagement (3)
- Datenspeicherung (3)
- Dokumentenverwaltungssystem (3)
- Erzähltechnik (3)
- Gebäudeleittechnik (3)
- Gerichtliche Anthropologie (3)
- Hassrede (3)
- Identität (3)
- Identitätsverwaltung (3)
- Infrastruktur (3)
- Internetkriminalität (3)
- Klein- und Mittelbetrieb (3)
- Kläranlage (3)
- Kollagen (3)
- Kriminalität (3)
- Kryptorchismus (3)
- Manipulation (3)
- Massively Multiplayer Online Role-Playing Game (3)
- Mikrocontroller (3)
- Mobilfunk (3)
- Narrativität (3)
- Netzwerktopologie (3)
- Online-Durchsuchung (3)
- Passwort (3)
- Proteine (3)
- RNS (3)
- Rollenspiel (3)
- SARS-CoV-2 (3)
- Schimmelpilze (3)
- Sequenzanalyse <Chemie> (3)
- Simulation (3)
- Smartphone (3)
- Softwaretest (3)
- Spurenauswertung (3)
- Spurensicherung (3)
- Stammzelle (3)
- Textverarbeitung (3)
- Video (3)
- Wahrnehmung (3)
- Webanwendung (3)
- Zelle (3)
- 3D-Technologie (2)
- Abwasser (2)
- Active Directory (2)
- Animationsfilm (2)
- Anthropologie (2)
- Antikörper (2)
- Arbeitsablauf (2)
- Audiodatei (2)
- Automatische Identifikation (2)
- Automatische Spracherkennung (2)
- Biogas (2)
- Biologischer Abbau (2)
- Biomedizin (2)
- Browser (2)
- COVID-19 (2)
- Car-to-Car-Kommunikation (2)
- Client-Server-Konzept (2)
- Computeranimation (2)
- Computergrafik (2)
- Computersimulation (2)
- Cyberattacke (2)
- Daten (2)
- Datenanalyse (2)
- Datenerfassung (2)
- Datenübertragung (2)
- Design (2)
- Dezellularisierung (2)
- Docker <Software> (2)
- Drahtloses lokales Netz (2)
- Durchflusscytometrie (2)
- Eingebettetes System (2)
- Elektronischer Fingerabdruck (2)
- Enterprise-Resource-Planning (2)
- Extraktion (2)
- Extrazelluläre Matrix (2)
- Fahrerassistenzsystem (2)
- Filmanalyse (2)
- Firewall (2)
- Fitness (2)
- Fotorealismus (2)
- Futtermittel (2)
- Gamification (2)
- Genanalyse (2)
- Geschäftsmodell (2)
- Gesichtsschädel (2)
- Graph (2)
- Hand (2)
- Heuristik (2)
- Hochschule (2)
- Immunohistologie (2)
- Immunsystem (2)
- Java <Programmiersprache> (2)
- Knochen (2)
- Kommunikationsprotokoll (2)
- Kommunikationssystem (2)
- Kraftfahrzeug (2)
- Krankenunterlagen (2)
- Krebs <Medizin> (2)
- Kriminalistik (2)
- Kriminaltechnik (2)
- Kriminologie (2)
- Kryokonservierung (2)
- Kryptosystem (2)
- Kunst (2)
- LINUX (2)
- Labormedizin (2)
- Legionella (2)
- Lernspiel (2)
- LoRaWAN (2)
- Lunge (2)
- Maschinelles Sehen (2)
- Medizin (2)
- Mikrofinanzierung (2)
- Mikroorganismus (2)
- Motivationspsychologie (2)
- Museum (2)
- Nanopartikel (2)
- Netzhaut (2)
- Online-Shop (2)
- Optische Kohärenztomografie (2)
- Organisiertes Verbrechen (2)
- Pathogener Mikroorganismus (2)
- Penetrationstest (2)
- Pflanzen (2)
- Phishing (2)
- Proteinfaltung (2)
- Pudel (2)
- RFID (2)
- Realistische Computergrafik (2)
- Recycling (2)
- Schuppenflechte (2)
- Semantik (2)
- Serious game (2)
- Server (2)
- Sicherungstechnik (2)
- Skelettfund (2)
- Software-defined networking (2)
- Softwarearchitektur (2)
- Speicherprogrammierte Steuerung (2)
- Spieler (2)
- Spielverhalten (2)
- Steuergerät (2)
- Therapie (2)
- Tissue Engineering (2)
- Trojanisches Pferd <Informatik> (2)
- Tumor (2)
- Unity <Spiel-Engine> (2)
- Unternehmen (2)
- Videospiel , Virtuelle Realität (2)
- Virtualisierung (2)
- Virtuelles Laboratorium (2)
- Wasserstofferzeugung (2)
- Web Services (2)
- Webentwicklung (2)
- Weichteile (2)
- Whatsapp (2)
- Windows 10 (2)
- Wissensvermittlung (2)
- World Wide Web (2)
- Zeitreise (2)
- Zellkultur (2)
- Zugang (2)
- iOS (2)
- Ökosystem (2)
- 5G (1)
- Abfüllverfahren (1)
- Abwasserableitung (1)
- Abwasseraufbereitung (1)
- Abwasserreinigung (1)
- Abwasserreinigung , Cerdioxid , Nanopartikel (1)
- Achterbahn (1)
- Ackerbohne (1)
- Ackerschmalwand (1)
- Adventivwurzel , Petunie , Steckling , Strigolactone (1)
- Alkoholkonsum (1)
- Altpapier (1)
- Amazon Alexa (1)
- Ammoniumverbindungen (1)
- Amyloid (1)
- Anatomie (1)
- Android <Systemplattform> , Malware (1)
- Angriffsvektor (1)
- Animationsfilm , Filmanalyse (1)
- Antenne (1)
- Anthropometrie (1)
- Antigen (1)
- Antigenrezeptor (1)
- Antikörper , Natürliche Killerzelle , Streptavidin , Tumorantigen (1)
- Anwendungssystem (1)
- Anämie (1)
- App Inventor (1)
- Arbeitsgestaltung (1)
- Arbeitsverhalten (1)
- Arbeitszeiterfassung (1)
- Archetypus (1)
- Architektur (1)
- Archivierung (1)
- Archivsystem (1)
- Arthrose (1)
- Arzneimittel (1)
- Assembly (1)
- Auge (1)
- Augenfolgebewegung (1)
- Augenkrankheit (1)
- Authentifikation (1)
- Automation (1)
- Autonomer Agent (1)
- Außerirdische Intelligenz (1)
- Bakterielle Infektion (1)
- Bakterien (1)
- Bangladesch (1)
- Bank (1)
- Barrierefreiheit (1)
- Bedrohungsvorstellung (1)
- Bekämpfung (1)
- Benchmarking (1)
- Benutzerverhalten (1)
- Bergbau (1)
- Berichterstattung (1)
- Betriebssystem (1)
- Betrug (1)
- Betäubungsmitteldelikt (1)
- Bewegtes Bild , App <Programm> (1)
- Bewegung (1)
- Bewegungsapparat (1)
- Biene <Gattung> (1)
- Bildanalyse , Fließgewässer (1)
- Bilderkennung (1)
- Bildnismalerei (1)
- Bildsegmentierung (1)
- Biochemische Analyse (1)
- Biodiversität (1)
- Bioelektrochemie (1)
- Biofilm (1)
- Biofouling , Geothermik , Biotechnologie (1)
- Biogasanlage , Prozessanalyse (1)
- Biogasgewinnung , Biomasse (1)
- Biogasgewinnung , Nuttalls Wasserpest (1)
- Biogastechnik (1)
- Biokraftstoff (1)
- Biologische Sicherheit (1)
- Biomarker , Immunassay (1)
- Biomarker , Krebs <Medizin> (1)
- Biomasseproduktion (1)
- Biotechnolgie (1)
- Biotin (1)
- Bioverfügbarkeit (1)
- Bitmap-Grafik (1)
- Blaue Fleischfliege (1)
- Blender <Programm> (1)
- Blutalkoholbestimmung (1)
- Blutuntersuchung , Notfallmedizin , Laborparameter (1)
- Bodenbearbeitung (1)
- Bodenbiologie (1)
- Bodenbiologie , Bodenbearbeitung , Kalium , Ionenselektive Elektrode (1)
- Bodennutzung (1)
- Bodenorganismus (1)
- Brauchwasser (1)
- Brücke (1)
- Business Intelligence (1)
- C <Programmiersprache> (1)
- C++ (1)
- CAN-Bus , Datenlogger (1)
- CRIPR/Cas-Methode (1)
- Calciummangel (1)
- Campbell, Joseph (1)
- Candida albicans , Infektion (1)
- Cannabinoide (1)
- Cellulasen (1)
- Cellulose (1)
- Charakterdesign (1)
- ChatGPT (1)
- Chatbot (1)
- Chemikalie (1)
- Chemische Biologie (1)
- Chemisches Labor (1)
- Chemokine (1)
- Chemotherapeutikum (1)
- Chiffrierung (1)
- Chipkarte , Betriebssystem , Authentifikation (1)
- Chipkarte , Nahfeldkommunikation (1)
- Chromatographie (1)
- Client (1)
- Cluster , Cluster-Analyse (1)
- Cluster <Datenanalyse> (1)
- Codegenerierung (1)
- Codierungstheorie (1)
- Computergrafik , Dreidimensionale Computergrafik (1)
- Computerlinguistik (1)
- Computerspiel , Bildung , Computerunterstütztes Lernen (1)
- Computerspiel , Erzähltechnik (1)
- Computerspiel , Fotogrammetrie (1)
- Computerspiel , Rollenspiel , Abenteuerspiel , Virtuelle Realität (1)
- Computerspiel , Softwareentwicklung , Verkaufstechnik (1)
- Computerspiel , Spielkonsole , Softwareentwicklung (1)
- Computerspielindustrie (1)
- Computertomografie (1)
- Computerunterstütztes Lernen (1)
- Computerunterstütztes Verfahren (1)
- Concept-art (1)
- Container (1)
- Container <Informatik> (1)
- Content Management (1)
- Convolutional Neural Network (1)
- Corporate Design (1)
- Corporate Network (1)
- Cyanide (1)
- Cytotoxizität (1)
- DNS , Geschlechtsbestimmung (1)
- DNS-Methyltransferase (1)
- DNS-Origami (1)
- Darknet (1)
- Darstellung (1)
- Data Mining (1)
- Data-Warehouse-Konzept (1)
- Dateiformat (1)
- Datenaustausch , iOS , MacOS , Framework <Informatik> (1)
- Datenbank , Web-Anwendung (1)
- Datenbanksystem , Softwareentwicklung (1)
- Datenfluss (1)
- Datenintegration (1)
- Datenlogger (1)
- Datenschutz-Grundverordnung , Datenschutz (1)
- Datenverknüpfung (1)
- Datenverwaltung (1)
- Debugging (1)
- Deepfake (1)
- Denkspiel (1)
- Dermatomykose (1)
- Desinfektion (1)
- Desinformation (1)
- Desktop (1)
- Desktop-Publishing (1)
- Diagnostik (1)
- Diclofenac (1)
- Digitale Daten (1)
- Digitale Signalverarbeitung (1)
- Digitalkamera (1)
- Dilemma (1)
- Dimethoat (1)
- Diskrete Mathematik (1)
- Diskreter Logarithmus (1)
- Distraktion (1)
- Distributionspolitik (1)
- Dokumentverarbeitung (1)
- Drahtloses vermaschtes Netz (1)
- Dreidimensionale Computergrafik (1)
- Dunkelziffer (1)
- Düngemittel (1)
- Dürrestress (1)
- E-Learning , Lernspiel (1)
- E-Scooter (1)
- Echtzeitbildverarbeitung (1)
- Echtzeitsimulation (1)
- Echtzeitsystem (1)
- Edge computing (1)
- Eigendynamik (1)
- Eigenwertproblem (1)
- Eindringerkennung (1)
- Einzelarbeitsplatz (1)
- Electronic Commerce (1)
- Elektrizitätserzeugung (1)
- Elektrizitätsversorgungsnetz (1)
- Elektrokardiografie (1)
- Elektronischer Zahlungsverkehr (1)
- Elektrostimulation , Stammzelle , Knochenbildung (1)
- Emotionales Verhalten (1)
- Endokrin wirksamer Stoff (1)
- Endoskop (1)
- Energieversorgung (1)
- Entwicklung (1)
- Enzymatische Analyse , Denguevirus (1)
- Enzyme-linked immunosorbent assay , Maus , Norovirus (1)
- Epidemiologie (1)
- Epigenetik (1)
- Epitop (1)
- Erfolgsfaktor (1)
- Erpressung (1)
- Erzaufbereitung (1)
- Ethereum (1)
- Event-Marketing (1)
- FT-IR-Spektroskopie (1)
- Facebook (1)
- Fehleranalyse (1)
- Feldbus (1)
- Fernsehserie (1)
- Fertigungsanlage (1)
- Festplatte (1)
- Feuchtgebiet (1)
- Filmarchitektur (1)
- Filmproduktion , Spezialeffekt , Computeranimation (1)
- Finanztechnologie (1)
- Finnland (1)
- Firmware (1)
- Flammenspektroskopie (1)
- Fledermäuse (1)
- FlexRay (1)
- Fließgewässer (1)
- Flugbahnverfolgung (1)
- Fluoreszenz-Resonanz-Energie-Transfer (1)
- Fluoreszenzmarkierung (1)
- Fluoreszenzmikroskopie (1)
- Fluoreszenzproteine (1)
- Fluoreszenzspektroskopie (1)
- Flüssigkeit (1)
- Flüssigkristall , Physikalische Chemie , Phasenschieber (1)
- Formula Student Germany (1)
- Forschung (1)
- Fortpflanzung (1)
- Fotografie (1)
- Frame <Journalismus> (1)
- Francisella tularensis , Genetische Variabilität (1)
- Frequenz (1)
- Front-End <Software> , World Wide Web , React <Framework, Informatik> (1)
- Frostresistenz (1)
- Funknetz (1)
- Funkübertragung (1)
- Fälschung (1)
- GPS , Koordinatenmessgerät (1)
- GSM-Standard (1)
- Gamification , Gesundheitsverhalten (1)
- Gamification , Verhaltensmodifikation (1)
- Gastrointestinale Krankheit , Pathophysiologie (1)
- Gebäude (1)
- Gefahrenabwehr (1)
- Gefühl (1)
- Gegensatz (1)
- Gelatine (1)
- Geldwäsche (1)
- Gelände (1)
- Generative Adversarial Network (1)
- Genetik (1)
- Genexpression (1)
- Genom (1)
- Gentechnologie (1)
- Gerichtliche Zahnmedizin (1)
- Gesellschaft (1)
- Gesundheitsinformationssystem (1)
- Gesundheitswesen (1)
- Getreide (1)
- Gewalttätigkeit (1)
- Gewöhnung (1)
- Glucosinolate , Kreuzblütler , Proteine , Hydrolysat (1)
- Golderz (1)
- Governance (1)
- Graphische Benutzeroberfläche (1)
- Grassilage (1)
- Grid Computing (1)
- Großfamilie (1)
- Gyrasehemmer (1)
- Haaranalyse (1)
- Halbleiter (1)
- Handy (1)
- Hardware (1)
- Hash-Algorithmus (1)
- Hauptspeicher (1)
- Hausinternes Netz (1)
- Hautleiste (1)
- Heros (1)
- Herpes-simplex-Virus (1)
- Herzmuskelzelle , Peroxisomen-Proliferator-aktivierter Rezeptor (1)
- Hochschulbildung (1)
- Hochschuldidaktik (1)
- Hochschule Mittweida (1)
- Hochschule Mittweida <Mittweida> (1)
- Hochschulunterricht (1)
- Holografie (1)
- Honeypot (1)
- Honigproduktion (1)
- Horrorfilm (1)
- Hospitalismus <Hygiene> (1)
- Humanitäre Hilfe (1)
- Hydroxyprolin (1)
- Hyperkalzämie (1)
- Hyperthermie (1)
- Hyponatriämie (1)
- Hämatoskopie (1)
- Häusliche Gewalt (1)
- Hüftgelenk (1)
- IP (1)
- Imidacloprid , Toxizität , Regenwürmer <Familie> (1)
- Immobilisierung (1)
- Immunologische Diagnostik (1)
- Immuntherapie (1)
- Implementation (1)
- Industrie 4.0 (1)
- Influenza-A-Virus (1)
- Information Extraction (1)
- Informationsfilterung , Kollaborative Filterung (1)
- Informationsmanagement , Servicegrad , IT infrastructure library (1)
- Informationssystem , Dokumentation (1)
- Informationstechnik (1)
- Informationsvermittlung (1)
- Input-Output-Analyse (1)
- Insektizid (1)
- Instand Messaging (1)
- Integration (1)
- Integrierte Schaltung (1)
- Interaktion (1)
- Interaktive Medien (1)
- Interaktives Video (1)
- Interdisziplinarität (1)
- Ionenselektive Elektrode (1)
- Ischämischer cerebraler Anfall (1)
- JPEG (1)
- JavaScript , Framework <Informatik> (1)
- Kalibrieren <Messtechnik> (1)
- Kalium (1)
- Kamera , Videospiel , Softwareentwicklung (1)
- Kampfszene (1)
- Kapitalanlagebetrug (1)
- Kapitaltransfer (1)
- Katalytische Reduktion , Visualisierung , c (1)
- Kennzeichen (1)
- Keratine , Extraktion , Hydrolysat (1)
- Kernel <Informatik> (1)
- Kind (1)
- Klein- und Mittelbetrieb , Prozessmanagement , Enterprise-Resource-Planning (1)
- Klimaänderung (1)
- Kläranlage , Schwefelwasserstoff , Aktivkohle , Abluftreinigung (1)
- Klärschlamm (1)
- Kollagenasen , Fibroblast (1)
- Kommunikation (1)
- Kontrollsystem (1)
- Kontrolltheorie , Stabilität , Steuerungstheorie (1)
- Kopienzahlvariation , Genamplifikation , Polymerase-Kettenreaktion (1)
- Korrosion (1)
- Kraftfahrzeugbau (1)
- Kraftfahrzeugindustrie (1)
- Krankenhaus (1)
- Kreatives Denken (1)
- Kriminalanthropologie (1)
- Kriminalbiologie (1)
- Kriminalitätstheorie (1)
- Kriminalprognose (1)
- Kriminelle Vereinigung (1)
- Krisenmanagement (1)
- Kryptoanalyse (1)
- Kugelspalt (1)
- Kulturpflanzen (1)
- Kundenbindung (1)
- Kunststoff (1)
- LINUX , Systemprogrammierung , Malware (1)
- Laboratorium (1)
- Landschaft (1)
- Landwirtschaft (1)
- Laserscanner (1)
- Lastkraftwagen (1)
- Laständerung (1)
- Lebensmittelhygiene (1)
- Lebensmittelmikrobiologie (1)
- Lebensmitteltechnologie (1)
- Lebensmittelverarbeitung (1)
- Lebensraum (1)
- Leder , Schimmelpilze , Test (1)
- Legasthenie (1)
- Legionella , Kühlwasser , Abwasser , Nachweis (1)
- Lehrveranstaltung (1)
- Leichte Sprache (1)
- Leitsystem (1)
- Leptospermum scoparium (1)
- Lernen (1)
- Levofloxacin (1)
- Linearer Code (1)
- Linux (1)
- Lipide (1)
- Lippe (1)
- Lithium (1)
- Logdatei (1)
- Long Term Evolution (1)
- Lucilia sericata (1)
- Lungenentzündung (1)
- Lungenkrankheit (1)
- Lymphom (1)
- Lügendetektor (1)
- MATLAB (1)
- Malaria (1)
- Managementinformationssystem (1)
- Manisch-depressive Krankheit (1)
- Marketing (1)
- Marketingstrategie (1)
- Massenmedien (1)
- Mathematisches Modell (1)
- Medienkonsum , Unterricht , Medienpädagogik (1)
- Medienkultur (1)
- Medienpolitik (1)
- Medizinische Dokumentation (1)
- Medizinische Mikrobiologie (1)
- Medizinprodukt (1)
- Medizintechnik (1)
- Mehragentensystem (1)
- Mehrkriterielle Optimierung (1)
- Mehrprozessorsystem (1)
- Meinungsbildung (1)
- Melanom (1)
- Membran (1)
- Mensch (1)
- Mensch-Maschine-Kommunikation (1)
- Messenger-RNS (1)
- Messgerät (1)
- Messung (1)
- Metadaten (1)
- Metallion (1)
- Metastase (1)
- Metrik <Mathematik> (1)
- Mikrobieller Abbau (1)
- Mikrofluidik (1)
- Mikrofotometrie (1)
- Mikroservice (1)
- Mikroservice , Heterogenes Rechnernetz (1)
- Mikroservice , Serviceorientierte Architektur (1)
- Mikroskopie (1)
- Milchleistungsprüfung (1)
- Milchproduktion (1)
- Milchverarbeitung (1)
- Mixed Reality (1)
- Mobile Telekommunikation (1)
- Mobiles Endgerät , Android <Systemplattform> , Computervirus (1)
- Mobiles Endgerät , Smartphone , Android <Systemplattform> , App <Programm> (1)
- Molekulargenetik (1)
- Molkerei (1)
- Moralpsychologie (1)
- Morphometrie (1)
- Motion Capturing (1)
- Motivation (1)
- Multimedia (1)
- Multiplexsystem (1)
- Mundschleimhaut (1)
- Musik (1)
- Musikmarkt (1)
- Muskelzelle (1)
- Myelodysplastisches Syndrom (1)
- NIR-Spektroskopie (1)
- Nachweis (1)
- Nahbereichsfotogrammetrie (1)
- Nanobiotechnologie (1)
- Nanostruktur (1)
- Nanotechnologie (1)
- Naturstein (1)
- Neophyten <Botanik> , Wasserpflanzen , Pflanzeninhaltsstoff (1)
- Netflix Inc. (1)
- Netzgerät (1)
- Netzwerkverwaltung , Monitorüberwachung (1)
- Neue Medien (1)
- Nichtionisierende Strahlung , Plausibilitätsprüfung (1)
- Nichtverbale Kommunikation (1)
- Normung (1)
- Notsignal (1)
- Nucleocapsid (1)
- Numerische Mathematik (1)
- Nutzen (1)
- Nutzpflanzen , BTX-Aromaten , Umweltbelastung (1)
- Nutzwertanalyse (1)
- Nährstoffaufnahme (1)
- ORACLE WebServer , LINUX , Server , Update (1)
- Oberflächenbehandlung , Biomaterial , Phosphate (1)
- Oberflächengewässer (1)
- Oberkiefer (1)
- Objektverwaltung (1)
- On-Board-Diagnose (1)
- Online-Spiel (1)
- Ontologie (1)
- Open Source (1)
- OpenStack (1)
- Opferschutz (1)
- Optimierung (1)
- Optische Spektroskopie (1)
- Optische Täuschung (1)
- Optische Zeichenerkennung (1)
- Optischer Richtfunk (1)
- Orakel <Informatik> (1)
- Oxidation (1)
- PDF <Dateiformat> (1)
- PGP (1)
- Pandemie (1)
- Papierindustrie (1)
- Parken (1)
- Pathogene Bakterien (1)
- Pathogene Bakterien , Medizinische Mikrobiologie , Minimale Hemmkonzentration (1)
- Pathogener Mikroorganismus , Scheidenentzündung , Abstrich <Medizin> , Labormedizin (1)
- Pathogenese (1)
- Patient (1)
- Peer-to-Peer-Netz (1)
- Perfluorverbindungen (1)
- Periphere Stammzellentransplantation (1)
- Pestizid (1)
- Pflanzenschutzmittel (1)
- Phantombild (1)
- Phosphor (1)
- Photodiode , Optoelektronisches Bauelement (1)
- Photorezeptor , Netzhautdegeneration (1)
- Photosynthese (1)
- Phylogenetik , Schlauchpilze , Saccharomycetaceae (1)
- Phänotyp (1)
- Pipette (1)
- Planung (1)
- Politische Kommunikation (1)
- Polizei (1)
- Polyfluorverbindungen (1)
- Polymerase-Kettenreaktion (1)
- Polymere (1)
- Polynom (1)
- Polynom , Graphentheorie (1)
- Polysaccharide (1)
- Praktikum (1)
- Priming (1)
- Privatphäre (1)
- Produkt (1)
- Produktion (1)
- Produktionsprozess (1)
- Programm (1)
- Programmiersprache (1)
- Projektplanung (1)
- Promotor <Genetik> , Rot fluoreszierendes Protein , Acetogene Bakterien (1)
- Prostatakrebs (1)
- Proteasen (1)
- Proteinbiosynthese (1)
- Proteinbiosynthese , Wirkstoff , Nervennetz (1)
- Prozesskette (1)
- Prozessmanagement (1)
- Prozessvisualisierung (1)
- Prunus (1)
- Prävention (1)
- Pupillenreaktion (1)
- Puppet <Software> (1)
- Qualitätsmanagement (1)
- RS-Virus (1)
- Raspberry Pi , Leistungsmessung , Energieverbrauch (1)
- Rauigkeit (1)
- Raumdaten (1)
- Rechnungswesen , Elektronische Buchführung , Softwaresystem (1)
- Rechtsmedizin , Schädel (1)
- Rechtsstellung (1)
- Regenerative Medizin (1)
- Regularisierung (1)
- Reinigung (1)
- Rekombinantes Protein (1)
- Rendering (1)
- Resozialisierung (1)
- Rezeptor (1)
- Rhamnolipide (1)
- Rind (1)
- Risikoanalyse (1)
- Rot-Grün-Blindheit (1)
- Router (1)
- Routing (1)
- Rust <Programmiersprache> (1)
- Rüstzeit (1)
- Satellitenfunk (1)
- Satellitentechnik (1)
- Scanner (1)
- Scanning (1)
- Schadstoffbelastung (1)
- Schaltschrank (1)
- Schimmelpilze , Leder , Oberflächenschaden (1)
- Schlaganfall (1)
- Schlagsahne (1)
- Schlammbehandlung (1)
- Schriftzeichenerkennung (1)
- Schule (1)
- Schussverletzung (1)
- Schutzmaßnahme (1)
- Schwierigkeitsgrad (1)
- Schädel (1)
- Sehne (1)
- Sehnenverletzung (1)
- Selbstständiger (1)
- Selbstwirksamkeit (1)
- Semantic Web (1)
- Semantisches Netz (1)
- Sensor (1)
- Serienfertigung (1)
- Server , LINUX , Patch <Software> (1)
- Sicherheitsanalyse (1)
- Sicherheitstechnik (1)
- Single-page-Webanwendung (1)
- Skelett (1)
- Skelettmuskel (1)
- Smart contract (1)
- Smartwatch (1)
- Smiley (1)
- Smoothed Particle Hydrodynamics (1)
- Social Media , Datenanalyse (1)
- Softwareentwicklung , Eingebettetes System (1)
- Softwareschnittstelle (1)
- Sound (1)
- Soundverarbeitung (1)
- Soziale Software (1)
- Sozialtechnologie (1)
- Spaltströmung (1)
- Speicher <Informatik> (1)
- Spektralfotometrie (1)
- Sperma (1)
- Spieleentwicklung (1)
- Spieltherapie (1)
- Sprache (1)
- Sprachgebrauch (1)
- Sprachverarbeitung (1)
- Spürhund , Person , Suche , Geruchswahrnehmung , Kriminalistik (1)
- Stabilität (1)
- Statistisches Modell (1)
- Steganographie (1)
- Sterbehilfe (1)
- Stereoskopie (1)
- Sterolesterase , Rekombinantes Protein , Pichia pastoris , Gentechnologie (1)
- Steuerhinterziehung (1)
- Steuerungstechnik (1)
- Stickstoff (1)
- Stickstoffstoffwechsel (1)
- Stickstoffverbindungen (1)
- Stochastisches Modell (1)
- Stoffwechsel (1)
- Strafbarkeit (1)
- Strafverfahren (1)
- Strafverfahrensrecht (1)
- Strafverfolgung (1)
- Strafverfolgungsmaßnahme (1)
- Streaming <Kommunikationstechnik> (1)
- Stress (1)
- Studium (1)
- Studium , Neue Medien (1)
- Störfaktor (1)
- Suberin , Cumarin , Biosynthese (1)
- Sulfatreduzierer (1)
- Superabsorber (1)
- Supply Chain Management (1)
- Systemmedizin (1)
- Systemplattform (1)
- Systemprogrammierung (1)
- T-Lymphozyt (1)
- TCP/IP , Firewall (1)
- Taphonomie (1)
- Tatort , Tatrekonstruktion , Computerforensik (1)
- Tatortbesichtigung (1)
- Taufliege (1)
- Taxonomie , Videospiel (1)
- Technische Unterlage (1)
- Tee (1)
- Teilchen (1)
- Telekommunikationsüberwachung (1)
- Textanalyse (1)
- Textur-Mapping (1)
- Tierarzneimittel (1)
- Tierproduktion (1)
- Token (1)
- Transkriptionsfaktor (1)
- Transplantation (1)
- Treiber <Programm> (1)
- Trick (1)
- Trinkwasser (1)
- Trinkwasser , Clostridium perfringens (1)
- Trinkwasseraufbereitung (1)
- Trinkwasserversorgung (1)
- Trolley-Problem (1)
- Tumorzelle (1)
- Tutte-Polynom (1)
- Twitter <Softwareplattform> (1)
- Täter (1)
- UML , Gateway (1)
- Ultrakurzer Lichtimpuls , Laserimpuls (1)
- Umweltbelastung (1)
- Umwelttoxikologie , Schadstoff , Stressor (1)
- Unbemanntes Flugzeug (1)
- Unterkiefer (1)
- Vector Association (1)
- Verbrennungsmotor (1)
- Verdaulichkeit (1)
- Verhältnismäßigkeitsgrundsatz (1)
- Verkehr (1)
- Verkehrsüberwachung (1)
- Vernehmung (1)
- Vernetzung (1)
- Verpackung (1)
- Vertonung (1)
- Verunreinigung (1)
- Verwahrung (1)
- Verwitterung (1)
- Vesikel (1)
- Viber (1)
- Video on demand (1)
- Videoaufzeichnung (1)
- Videoaufzeichnung , Audiotechnik , Softwareentwicklung (1)
- Videospiel , Musik (1)
- Videospiel , Softwareentwicklung (1)
- Videospiel , Virtuelle Realität , Visuelle Wahrnehmung (1)
- Videospielemarkt , Computerspielindustrie , Japan , Kultur , Westliche Welt , Einfluss (1)
- Virusinfektion (1)
- Visualisierung , Dreidimensionale Computergrafik (1)
- Vitamin-D-Gruppe (1)
- Vorschulkind (1)
- WINDOWS <Programm> (1)
- Wahrscheinlichkeitsrechnung (1)
- Wasserprobe (1)
- Wasserstoffionenkonzentration (1)
- Wasserverschmutzung (1)
- Wasserverschmutzung , Ethinylestradiol , Bioassay (1)
- Web-Applikation (1)
- Web-Seite (1)
- Webdesign (1)
- Website , Gestaltung (1)
- Wellenfunktion (1)
- Wiederkäuer (1)
- Wildbirne (1)
- Wildtiere (1)
- Windows 7 (1)
- Windows XP (1)
- Wirkung (1)
- WordPress (1)
- XML (1)
- Zeichnung (1)
- Zeiterfassung (1)
- Zeitreihe , Vektor , Hankel-Matrix (1)
- Zeitreihenanalyse (1)
- Zellkultur , Diagnostik , Lymphatische Leukämie (1)
- Zelltod (1)
- Zellulares neuronales Netz (1)
- Zephyr <Programm> (1)
- Zertifizierung (1)
- Zigbee-Technologie (1)
- Zufallsgraph (1)
- dreidimensionale Rekonstruktion (1)
- visualisierung (1)
- Überwachtes Lernen (1)
Institute
- Angewandte Computer‐ und Biowissenschaften (939) (remove)
Diese Arbeit thematisiert das Zusammenspiel verschiedenster Projektmanagement Ansätze mit den Psychologischen Persönlichkeitstypen nach dem Myers-Briggs-Typenindikator.
Es wird hierbei auf die Erstellung eines dynamischen Evaluationstools eingegangen und den konkreten Hintergedanken zur Fragenerstellung selbiger. Ziel war es ebenfalls die Arbeitsmoral und Vorstellungen einzelner Teammitglieder zu verbessern. Außerdem ist eine Verbindung der Arbeitsstile und Persönlichkeitstypen eine große Chance, Teams zu optimieren und die Produktivität zu steigern
Konzeption und Umsetzung eines Komplexpraktikums zur Erstellung einer WebApp für Mobile Endgeräte
(2020)
Die vorliegende Arbeit befasst sich mit der Erstellung eines Komplexpraktikums zur Entwicklung einer WebApp für mobile Endgeräte. Ziel der Arbeit ist es, den aktuellen Stand der Technik im Bereich der Entwicklung von Webanwendungen zu analysieren und auf Grundlage der daraus gewonnenen Erkenntnisse selbst eine Webanwendung zu konzipieren und umzusetzen. Diese Anwendung dient ihrerseits als Basis für die Erstellung von 4 Seminaren für die Studenten des 2. Semesters im Studiengang Medieninformatik und Interaktives Entertainment der Hochschule Mittweida, in deren Rahmen sie diese nachprogrammieren und dadurch mit den Technologien und Konzepten vertraut gemacht werden.
Konzeption zum Aufbau einer Werkstatt 4.0 mit prototypischen
IoT Elementen, teilweise simuliert
(2020)
Bei dieser Arbeit wurden verschiedene Vergleiche zwischen Datenübertragungsarten gezogen und welche in einer Werkstatt 4.0 implementiert werden können. Die Vergleiche finden sich meist in Tabellenform wieder, da diese die beste Möglichkeit zur Gegenüberstellung bieten. Weiterhin wurde ein Konzept für eine Benutzerverwaltung erstellt. Dabei war die Vorgabe mit dem ASP.Net Framework „Razor Pages“ und WPF zu arbeiten. Diese Arbeit ist sowohl für studierende der Informatikstudiengänge als auch für Technik affine Studenten interessant.
Im Rahmen des Projekts "Historisches Mittweida" entsteht eine virtuelle Nachbildung der Stadt Mittweida Auf Basis der Unity-Engine. Der thematische Fokus liegt auf einer spielerischen Nachbildung der Entwicklungsgeschichte der Hochschule Mittweida. Der menschliche Spieler soll dieser selbst Hand anlegen dürfen und so seine eigene, aber immer noch an die historischen Vorgaben angelehnte Version dieser Geschichte erschaffen können.
Das Ziel dieser Arbeit besteht in der Erweiterung dieses Projekts um ein Multi- Agentensystem (MAS), welches die Spielwelt mit virtuellen Studenten belebt. Die virtuellen Studenten haben individuelle Fähigkeiten und Begabungen und steigern ihre Erfahrungen durch den Besuch von Lehrveranstaltungen. Die Dynamik dieser Abläufe soll spielerisch erlebbar sein. So soll der Spieler z.B. durch die Errichtung von Hochschulgebäuden und der Einstellung von Dozenten die Lehrumgebung für die Studenten aktiv gestalten. Dazu benötigt er Ressourcen, welche er aus Studiengebühren, Forschungsprojekten und anderen Quellen erhält.
Zur Abbildung des Lehrbetriebs der Hochschule Mittweida sollen Agenten in der Rolle von Studenten und Dozenten zur Interaktion miteinander befähigt werden, damit ein generalisierter Studienablauf abgebildet werden kann. Zu diesem Zweck soll zunächst ein generalisiertes Konzept dieser Agenten entwickelt werden. Dieses Konzept soll daraufhin in einem Prototypen umgesetzt werden, welcher dann auf Spielbarkeit hin evaluiert werden soll. Die abschließende Evaluation soll Rückschlüsse dazu liefern, wie der Prototyp ausbalanciert werden muss, um das Spielerlebnis und den Fluss des Spiels zu verbessern.
Die vorliegende Bachelorarbeit gibt einen Überblick über die Zusammenhänge von Tokenaktivitäten und Social Media-Aktivitäten am Beispiel dreier Tokens. Dafür wurden spezifische Merkmale der jeweiligen Aktivitäten automatisiert und manuell erfasst und anschließend einer Korrelationsanalyse unterzogen. Die so erhaltenen Werte wurden danach auf ihre Ausprägungen hin untersucht und abschließend auf ihre Aussagekraft im Bezug auf die Hypothesen dieser Arbeit analysiert. Die Basis der Untersuchungen bilden Abhandlungen von Kim et. al., Garcia et. al. und Mai et. al. zu den Zusammenhängen zwischen Kryptowährungen und Social Media. Durch die Erweiterung ihrer Hypothesen auch auf Kryptotokens wurden sich neue Erkenntnisse über die Zusammenhänge erhofft, welche letztendlich in Teilen den Vermutungen entsprachen.
Konzeption, Planung und prototyptechnische Umsetzung einer Schnittstelle für Laborautomatisierung
(2016)
Im Rahmen dieser Arbeit soll eine leistungsfähige Softwareschnittstelle für die Kommunikation zwischen einem Laborinformations-, Prozessmanagementsystem und einem Steuerprogramm von komplexen Laborautomaten entwickelt werden. Insbesondere soll diese Schnittstelle für die effiziente und kontrollierte Routinebearbeitung von Laborproben an flüssigkeitsbewegenden Laborautomaten verwendet werden. Ziel des Laborinformationssystems ist eine schrittweise nachvollziehbare Probenbearbeitung. Für deren Umsetzung eine Untersuchung der gegebenen Möglichkeiten unter Beachtung des Programmieraufwands beider Seiten notwendig ist, wobei der Eigenanteil der Programmierung nur auf der Automatenseite liegt.
In dieser Masterarbeit werden sichere steganografische sowie kryptografische Methoden vorgestellt, erläutert, untersucht und innerhalb eines eigens entwickelten Software-Prototypen mit intuitiver Benutzerschnittstelle kombiniert. Noch immer werden Menschenrechtsverteidigende in totalitären Systemen und anderen Krisengebieten systematisch verfolgt, inhaftiert, gefoltert oder sogar exekutiert, weil ihre digital gespeicherten Daten eine antitotalitäre und investigative Tätigkeit beweisen. Die in dieser Arbeit gesammelten Erkenntnisse sowie der darauf basierende Prototyp sollen zu einem besseren Schutz dieser Menschen beitragen.
Im Rahmen von vielen Kriminalfällen werden Audio- und Videoaufnahmen asserviert und ausgewertet. Häufig sind in den Mediendateien unabsichtliche Aufzeichnungen des Stromnetzfrequenz- brummen enthalten. Diese können extrahiert und analysiert werden. Sofern entsprechende Aufzeichnungen über vergangene Stromnetzfrequenzverläufe vorliegen, können selbige zur Identifikation des Aufnahmeortes und Aufnhahmezeitpunktes herangezogen werden. Innerhalb dieser Bachelorarbeit wird ein Stromfrequenz-Messgerät für den Aufbau einer Stromfrequenzdatenbank konzipiert. Weiterhin werden Störeinflüsse evaluiert, die eine erfolgreiche Messung verhindern können.
Der technologische Fortschritt ermöglicht das Speichern von größeren Datenmengen. Dies hat zur Folge, dass Daten mehr Platz auf einem Datenträger einnehmen und die Wahrscheinlichkeit des Aufteilens einer Datei auf mehrere auf dem Datenträger verteilte Positionen steigt. Von dieser sogenannten Fragmentierung sind auch JPEG-Dateien betroffen, wobei sich die Frage stellt, wie ein Zusammensetzen der Fragmente ohne die notwendigen Informationen aus dem Dateisystem möglich ist.
Ziel dieser Masterarbeit ist es, eine prototypische Implementierung eines intelligenten Carving Algorithmus zur Rekonstruktion fragmentierter JPEG-Dateien zu entwickeln, welcher durch erzeugte Testszenarien evaluiert wird.
Um dieses Ziel zu erreichen, wird ein Programm erstellt, welches sich an dem Smart Carving-Prinzip orientiert und diverse Carving-Methoden einbezieht. Für die anschließende Beurteilung der Lauffähigkeit des Prototyps werden Szenarien zum Testen von Stärken und Schwächen entwickelt. Die Ergebnisse aus diesen werden durch eine Evaluationsstrategie bewertet.
Anhand der Ergebnisse wird deutlich, dass der entwickelte Prototyp noch viele Schwächen aufweist. Bei manchen Szenarien können vollständig korrekte Ergebnisse geliefert werden und die JPEG-Dateien rekonstruiert werden, bei anderen Szenarien sind die Ergebnisse unzureichend. Diese Ergebnisse und der Fakt, dass der Prototyp lediglich für kleine Datenmengen konzipiert und erprobt wurde, zeigen, dass ein Einsatz des Programms in einer realen Umgebung noch nicht möglich ist.
Konzeptionierung eines embedded Device zur
Aufzeichnung von Datenverkehr in Drahtlosnetzwerken
(2017)
In der vorliegenden Bachelorarbeit wird eine Methodik vorgestellt, den Datenverkehr in Draht-losnetzwerken mithilfe eines embedded Device aufzuzeichnen. Zu herkömmlichen, kommer-ziellen Produkten wird hier, basierend auf den von „Espressif“ entwickelten ESP32, eine kos-tengünstige Alternative dargestellt. Der aufgezeichnete Netzwerkverkehr kann innerhalb des Programmablaufs gefiltert, sowie anschließend auf einer SD-Karte gesichert werden. Der in dieser Arbeit aufgezeigte Schaltplan ist, wie auch der Programmablauf, auf den jeweiligen Einsatz modifizierbar. Aufgrund der geringen Größe von etwa 52mm x 27mm x 13mm ist das embedded Device für den mobilen Einsatz prädestiniert. Die Performance des Geräts und der verwendeten SD-Karte werden jeweils in einem Benchmark veranschaulicht. Aufgrund der Geschwindigkeit von 0,005284 Mbps kann ein lückenloses Aufzeichnen von drahtlosen Netzwerkverkehr zwar nicht gewährleistet, jedoch im Ausblick alternative Einsatzgebiete vorgeschlagen werden.
Die Aufgabe von Penetrationstestern ist es, Sicherheitslücken in IT-Systemen zu finden. Dieser Prozess kann innerhalb eines Pentest-Labors geübt werden. Das Ziel der Arbeit war es, ein Konzept zu erstellen, das ein solches Labor auf Basis von Cloud-Computing erstellt. Die Erstellung fand dabei nach einem fünfstufigen Vorgehen statt. Anforderungsanalyse, Evaluation eines Cloud-Providers und eines Automatisierungstools, Grundlagen der gewählten Lösungen, Konzeptionierung und Implementation. Ziel der Analyse war es, Anforderungen zu sammeln, das die Umgebung erfüllen soll. Hauptziel war es demnach einfach und mit minimalem Zeitaufwand verschiedene Infrastruktur-Szenarien zu erstellen. Ein solches Szenario war beispielsweise ein unsicheres Office Netzwerk. Auf diesen Forderungen aufbauend wurden verschiedene Cloud-Provider sowie Anbieter von Automatisierungstools verglichen und es wurde eine Entscheidung für je einen getroffen. Die Wahl fiel auf OpenStack als On-Premise Cloud-Lösung und Terraform als Tool, das automatisiert die Infrastrukturen erzeugen soll. Jene wurden in dem darauffolgenden Kapitel genauer vorgestellt und deren Funktion sowie Betrieb erläutert. Nachdem das Fundament für das Konzept gelegt war, erfolgte das Planen, was für verschiedenen Systeme für das Szenario des Office Netzwerk nötig waren. Dabei handelte es sich um Windows Server und Client, Linux Client und eine Metasploitable Maschine. Daraufhin folgte die Evaluation, wie diese Systeme bereitgestellt und bei Instanziierung konfiguriert werden sollen. Entschieden wurde sich für manuell erstellte Systemabbilder und zur Konfiguration das Tool Cloud-Init.
Abschließend wurde das Konzept an einem Prototyp, mit dem Ziel der Prüfung auf Fehlerfreiheit, umgesetzt. Die Implementation erfolgte ohne Probleme und das Labor stand mit dem geforderten Szenario, das innerhalb von 10 Minuten mit einem Befehl erstellt werden konnte, zur Verfügung. Zukünftige Arbeiten könnten das Konzept in einer Langzeitstudie auf eventuell auftretende Fehler hin prüfen. Zudem können weitere Szenarien und weitere Autmatisierungstools implementiert werden.
Die vorliegende Diplomarbeit befasst sich mit der Erstellung eines Konzeptes für eine Betriebs- und Konfigurationssoftware eines CAN-Bus-Datenloggers sowie mit der anschließenden Implementierung dieses Konzeptes. Basierend auf einer Analyse bestehender Datenlogger werden die notwendigen Anforderungen ermittelt. Diese Anforderungen stellen die Grundlage für das Konzept der Betriebs- und Konfigurationssoftware dar. Im Anschluss an die Implementierung erfolgt der Nachweis über die Umsetzung der vorab definierten Anforderungen mittels Verifikation.
Gegenstand dieser vorliegenden Bachelorarbeit ist die Firma NetConsult und der langjährige Kunde das Landratsamt Pirna und seine Außenstellen die Schulen. Die Schulen des Landkreises Pirna stehen vor dem Problem, dass ihre vorhandene IT-Infrastruktur überaltert ist und ein zeitgemäßer Unterricht nur noch mit viel Mühe und Aufwand gewährleistet werden
kann. Aufgrund der Überalterung der IT-Technik ist ein hoher Wartungsaufwand verbunden. Nun wünscht sich das Landratsamt Unterstützung. Dies wurde mit Hilfe einer Ausschreibung realisiert, welche die Firma gewann. Die vorliegende Arbeit beschäftigt sich mit dem genannten Problem, um eine passende Lösung in Form einer Konzeptstudie zu finden. Die Lösung sieht vor, die vorhandene IT-Infrastruktur der Schulen zu zentralisieren, um zum einen den Aufwand mit der momentanen Struktur zu minimieren und zum anderen die Geräte besser zu administrieren sowie die Lebensdauer zu optimieren. Als Grundlage dienen die Ausschreibungsunterlagen der Firma NetConsult. Diese sind hinsichtlich der vorhandenen Hardware inklusive Gerätedaten an jeder Schule zu analysieren. Dies ist wichtig für das Ergebnis der Konzeptstudie. Hier fließen alle analysierten Daten sowie Technologien ein, um für jede Schule nach modernen Maßstäben eine passende Lösung zu finden. Die einzusetzenden Technologien sollen helfen, eine zentrale Verwaltung der Schulen zu ermöglichen, indem neue Wege gegangen werden können. Die Lösung ist als Netzwerkplan dargestellt. Dieser enthält jeden Standort und die zentrale Einheit das Landratsamt Pirna. Alle Schulen sollen mit dem Landratsamt verbunden sein.
Korrelation von Zeitstempeln und Pfadangaben von Ausführungsartefakten eines Windows 1x Systems
(2022)
Die Sicherheitslage in Deutschland wird für das Berichtsjahr 2021 durch das Bundesamt für Sicherheit in der Informationstechnik (BSI) als angespannt bis kritisch beschrieben. Ein Grund für diese Einschätzung ist, die Zunahme von Ransomware-Angriffen und die daraus resultierenden Schäden. Derartige Angriffe müssen im Rahmen eines Incident Response und Digital Forensic (kurz DFIR) Prozess aufgeklärt, eingedämmt und weitgehend rückgängig gemacht werden. Die immer größer werdenden Mengen an heterogenen Daten und die immer kürzeren Zeitabschnitte, die für eine Analyse zur Verfügung stehen, sind Herausforderungen, mit denen die Incident Responder und die Digitalen Forensiker konfrontiert sind.
Diese Arbeit verfolgt das Ziel, den Aufwand einer forensischen Untersuchung zu verringern, in dem Ausführungsartefakte von Windows 1x Systemen anhand der in ihnen enthaltenen Pfadangaben und Zeitstempel miteinander korreliert werden. Die praktische Anwendbarkeit der in dieser Arbeit gewonnen Erkenntnisse wurde in einem Proof-of-Concept demonstriert. Dessen Umsetzung erfolgte mithilfe von Angular, Flask und Neo4j.
Kreation von glaubwürdigen und interessanten Spielwelten mit dem Fokus auf Immersion und Leveldesign
(2016)
Diese Bachelorarbeit bietet einen Leitfaden für die Produktion von glaubwürdigen und interessanten offenen Spielwelten. Dabei werden im theoretischen Teil Schwerpunkte für die Produktion von offenen Spielwelten ermittelt. Im praktischen Teil wird mithilfe einer Umfrage versucht, den theoretischen Teil zu bestätigen.
Diese Arbeit untersucht den Einfluss westlicher und japanischer Kultur auf die Videospielindustrie. Dabei reduziert sie sich auf einen gewissen Kulturbegriff und schafft mithilfe dessen ein aktuelles und neutrales Bild der Stereotypen beider Kulturen. Eine analytische Betrachtung am praktischen Beispiel einiger Videospiele, gibt dabei Aufschluss über unterschiedliche Konzepte, die durch das bestehen von Kulturen geprägt wurden. Auf Grundlage der quantitativen Umfrage werden gewisse Neigungen und Präferenzen der westliche Audienz untersucht und analysiert und mit den theoretischen, sowie analytischen Ansätze verglichen und in Relation gesetzt. Das Ergebnis zeigt, dass kulturelle Wertmuster im Zuge der Globalisierung einander annähern und die Grenzen der eindeutigen Identifikation zunehmend verschwimmen
Die Frage, ob MOBAs wie League of Legends für eine erhöhte Selbstwirksamkeit sorgen können, ist nicht nur für die Videospielindustrie interessant, sondern hat aufgrund der hohen Verbreitung von Videospielen gesamtgesellschaftliche
Relevanz. Aufgrund der jährlich steigenden Zahlen von depressiven Erkrankungen in Europa ergibt sich insbesondere für Spiele, die in großen Teilen der Bevölkerung verbreitet sind, eine Chance das Problem neu zu adressieren. Da es, insbesondere was MOBAs betrifft, Hinweise darauf gibt, dass diese zur kurzfristigen Steigerung der bei Depressiven verminderten Selbstwirksamkeit beitragen können, wurde anhand von „League of Legends“ der Versuch unternommen diese Effekte über die Spielmechanik zurückzuverfolgen und mit einer Umfrage die tatsächliche Kurzzeitwirkung des Spiels auf seine Anwender nachzuweisen. Es ließ sich darüber feststellen, dass League of Legends-Spieler in der Tat eine durchschnittlich höhere Selbstwirksamkeit aufweisen und diese über eine Spielrunde noch gesteigert werden kann. Damit hat diese Arbeit einen Beitrag dazu geleistet die Nützlichkeit von MOBAs für therapeutische Zwecke zu untersuchen.
Pankreaskarzinome zeichnen sich durch geringe Überlebensraten aus und sind als schwer heilbar eingestuft, da chemotherapeutische Behandlungsansätze bisher unzureichende Erfolge erzielen. Es ist bekannt, dass die Wärmebehandlung (Hyperthermie) von Tumoren zu einer Sensibilisierung derselben für Chemotherapeutika führt. Bisher wurde nicht untersucht, ob mit Hilfe einer magnetischen Hyperthermiebehandlung bei subletalen Gemcitabin-Konzentrationen Tumorzellen abgetötet werden können. Anhand dieser Arbeit wird die Auswirkung der Kombinationstherapie untersucht. Dabei wird zunächst eine subletal wirkende Gemcitabin-Konzentration (50-70% Zellvitalität), auf PANC-1-Zellen im exponentiellen Wachstum, bis 72 h nach der Inkubation ermittelt. Den vorbehandelten Zellen werden anschließend super-paramagnetische Eisenoxidnanopartikel fluidMAG/C11-D) zugeführt und mit Hilfe eines Magnetwechselfeldes magnetische Hyperthermie (43°C, 1 h) erzeugt. Die Kurz- und Langzeitvitalität (bis 72 h bzw. 14 Tage nach der Behandlung) der Tumorzellen wird nachfolgend mit verschiedenen Vitalitätstests ermittelt und die Effektivität der Therapieform diskutiert.
In dieser Arbeit soll festgestellt werden, wie die künstliche Intelligenz als Schadsoftware funktioniert. Unter anderem werden das Cyber-Angriff-Modell und das IT-Sicherheitsprozess vom Bundesamt für Informationstechnik und Sicherheit vorgestellt. Anschließend werden die mit der automatisierten Malware einhergehenden Sicherheitsrisiken und die Auswirkung der künstlichen Intelligenz als Schadsoftware auf das Cyber-Angriff-Modell und das IT-Sicherheitsprozess überprüft.
In dieser Arbeit wurde mittels grafischer Bildanalyse die Fließrichtung deutscher Oberflächengewässer bestimmt. Die Bestimmung beruht auf der einfachen Logik, dass jede Quelle in einem Einzugsgebiet, zu einem eindeutigen Gebietsausfluss führt. Dazu wurde ein Java Programm geschrieben, welches in ImageJ eingebunden wurde und als Plug-in fungiert. Mit dem Programm ist es möglich, für jede geografisch erfasste Flusskoordinate die Quell- und Senkenentfernung zu erhalten, die Anzahl an Verzweigungen zu bestimmen sowie die Koordinaten des gesamten oder wahlweise in km abgestuften Oberlaufs an Zielkoordinaten zu erfassen. Das Programm wurde genutzt, um für Makrozoobenthos-Messstellen die Landnutzung im Oberlauf 100 m rechter- und linkerhand des Zielflusses zu berechnen, um daraus Rückschlüsse auf mögliche Eintragspfade von Pflanzenschutzmitteln zu ziehen. Desweiterem wurden aus dem deutschlandweiten Datensatz von knapp 21.000 Messstellen weitgehend naturbelassene Flussabschnitte selektiert, welche als Referenzgewässer fungieren.
This thesis investigates the efficacy of four machine learning algorithms, namely linear regression, decision tree, random forest and neural network in the task of lead scoring. Specifically, the study evaluates the performance of these algorithms using datasets without sampling and with random under-sampling and over-sampling using SMOTE. The performance of each algorithm is measure using various performance metrics, including accuracy, AUC-ROC, specificity, sensitivity, precision, recall, F1 score, and G-mean. The results indicate that models trained on the dataset without sampling achieved higher accuracy than those trained on the dataset with either random under-sampling or random over-sampling using SMOTE. However, the neural network demonstrated remarkable results on each dataset compared to the other algorithms. These findings provide valuable insights into the effectiveness of machine learning algorithms for lead scoring tasks, particularly when using different sampling techniques. The findings of this study can aid lead management practices in selecting the most suitable algorithm and sampling technique for their needs. Furthermore, the study contributes to the literature by providing a comprehensive evaluation of the performance of machine learning algorithms for lead scoring tasks. This thesis has practical implications for businesses looking to improve their lead management practices, and future research could extend the analysis to other machine learning algorithms or more extensive datasets.
Das Ziel dieser Arbeit ist es zum einen zu bestimmen, welche Theoretischen Grundlagen zum Thema Game-Design-Dokument sich auf die deutsche Spieleindustrie anwenden lassen, und zum anderen herauszustellen welche Formen von Gamedesign Dokumenten genutzt werden und warum. Dazu werden, mittels Literaturrecherche theoretische Grundlagen eines Gamedesign Dokuments vorgestellt. Im methodischen Teil wurde die Anwendbarkeit auf die deutsche Spieleindustrie, anhand von Experten Interviews überprüft.
Die vorliegende Bachelorarbeit setzt sich mit der Fragestellung auseinander, ob langfristige Verhaltensveränderung durch Gamification erreicht werden kann. Dazu werden in dieser Arbeit die erfolgreiche Implementation von Gamification, die Faktoren der Langzeitbindung in Spielen und die verhaltensbeeinflussenden Methodiken der Verhaltenstherapie untersucht. Die erarbeiteten Faktoren der verschiedenen Bereiche werden abschließend auf Schnittmengen überprüft und zu einem theoretischen Modell zusammengefügt.
Live-Updates von Oracle-Linux-Servern mit Ksplice und Yum : Untersuchung der Systemstabilität
(2015)
Server müssen hohen Sicherheitsansprüchen genügen und dürfen in der Praxis so wenig wie möglich ausfallen. Dabei ist bereits die Zeit für eine Wartung ein hoher Kostenfaktor. Systemaktualisierungen sollten so schnell wie möglich eingespielt werden, am besten während des Produktivbetriebs. Diese Arbeit setzt hier an und untersucht die zwei Programme Ksplice und Yum. Diese Aktualisierungssysteme für Oracle-Linux sollen das Betriebssystem aktuell halten ohne es abschalten zu müssen.
Ziel dieser Arbeit ist es, eine Aussage darüber treffen zu können, ob mit den zwei Programmen Ausfallzeiten für Wartungsarbeiten minimiert werden können. Hierzu wird die Praxistauglichkeit der Programme erprobt und nach Schwächen gesucht, welche die Serverstabilität gefährden. Es werden die Funktionsweisen analysiert und die gewonnenen Erkenntnisse durch praktische Tests untermauert.
Die vorliegende Arbeit befasst sich mit der Analyse von Videos mit Kinder- und Jugendschauspielern, die durch die Forensik-Analyse-Software X-Ways Forensics gecarvt und gefiltert und von dem Gesichtserkennungsprogramm SHORE des Fraunhofer Instituts für Integrierte Schaltungen bezüglich Alter und Geschlecht analysiert werden. Die Biometrische Unterscheidung des Alters ist besonders bei der Erkennung und Differenzierung zwischen legaler Erwachsenenpornographie und inkriminierter Kinder- sowie Jugendpornografie entscheidend. Die Ergebnisse werden unter verfahrensechten Umständen getestet und auf Gerichtsverwertbarkeit geprüft. Um Vergleiche mit ähnlichen Produkten und der manuellen Arbeit eines erfahrenen Ermittlers zu erstellen, werden Testdaten mit bekannten Parametern eingespeist und bezüglich Treffer- und Fehlergenauigkeit sowie Dauer verglichen.
In dieser Bachelorarbeit wird ein Überblick über die Management- und Orchestrierungskomponente eines 5G Mobilfunknetzes sowie dafür relevante, zugrundeliegende Konzepte gegeben. Die Sicherheitsrelevanz des MANO-Systems wird anhand der Ergebnisse einer Risikoanalyse eingeordnet. Die daraus abgeleiteten Sicherheitsvoraussetzungen werden mit bereits bestehenden Zertifizierungs-Tests verglichen und somit herausgearbeitet, für welche Sicherheitsaspekte zukünftig ein MANO-spezifischer Zertifizierungstest erstellt werden muss. Um die Arbeit abzuschließen, wird ein beispielhafter Test-Entwurf vorgestellt, mit
welchem sich eine der noch offenen Sicherheitsvoraussetzungen überprüfen lassen könnte.
Ziel dieser Arbeit ist die manuelle und automatische Annotation anatomischer und anthropologischer Leitstrukturen und Messpunkte am Beispiel von Mandibulae männlicher Soldaten der napoleonischen Armee. Hierbei werden Mandibulae der Skelettsammlung Rödelheim mit Hilfe von Photogrammetrie digitalisiert und mittels der Software AnthroWorks3D hinsichtlich anatomischer und osteometrischer Landmarken annotiert. Ziel ist eine Automatisierung des Setzens der osteometrischen Landmarken, die mittels einer Schablone realisiert wird. Dabei soll untersucht werden, welche Mandibula die „Durchschnittlichste“ ist und wie effizient der Automatisierungsprozess im Vergleich zu einer manuellen Annotation ist. Anhand statistischer Analysen wird ein Überblick über aussagekräftige Kenngrößen innerhalb der Stichprobe gegeben. Untersuchungen der anatomischen Skelettvarianten dienen der Einschätzung bzgl. deren Einflusses auf AnthroWorks3D.
Maskenentwurf parametrisierbarer optoelektronischer Bauelemente einschließlich Entwurfsregelprüfung
(2017)
In diesem Projekt wird die Erstellung eines Satzes lithographischer Masken für die Halbleiterbearbeitung behandelt. Als Basis dient ein gut verstandenes Bauelement aus dem Bereich der Optoelektronik, eine Fotodiode. Diese wird im Rahmen des Diplomprojektes parametrisierbar entwickelt und entworfen sowie programmiert. Der Entwurf wird dann auf der Grundlage zu definierender Regeln einer Entwurfsregelprüfung unterzogen. Ziel dieser Arbeit ist es, die technologischen sowie funktionalen Regeln im Programm abzubilden.
With the growing market of cryptocurrencies, blockchain is becoming central to various research areas relevant from a mathematical and cryptographic point of view. Moreover, it is capable of transforming the traditional methods involving centralized network operations into decentralized peer-to-peer functionalities. At the same time, it provides an alternative to digital payments in a robust and tamperproof manner by adding the element of cryptography, consequently making it traversable for an individual who is a part of the blockchain network. Furthermore, for a blockchain to be optimal and efficient, it must handle the blockchain trilemma of security, decentralization, and scalability constraints in an effective manner. Algorand, a blockchain cryptocurrency protocol intended to solve blockchain’s trilemma, has been studied and discussed. It is a permissionless (public) blockchain protocol and uses pure proof of stake as its consensus mechanism.
Soft Learning Vector Quantisation (SLVQ) andRobust Soft Learning Vector Quantisation (RSLVQ) are supervised data classification methods, that have been applied successfully to real world classification problems. The performance of SLVQ and RSLVQ, however, reduces, when they are applied tomore complicated classification problems. In this thesis, we have introducedmodi-fications to SLVQand RSLVQ, in order to havemore capable versions of them. A few possibilities to modify SLVQ and RSLVQ are considered, some of them are not successful enough and they have been included for the sake of completeness. The fruits of the thesis are plenty, including Tangent Soft Learning Vector Quantisation-Strong (TSLVQ-S), together with its more stable version Tangent Robust Soft Learning Vector Quantisation-Strong (TRSLVQ-S), Attraction Soft Learning Vector Quantisation (ASLVQ) and Grassmannian Soft Learning Vector Quantisation (GSLVQ).
Mathematics Behind the Zcash
(2020)
Among all the new developed cryptocurrencies from Bitcoin, Zcash comes out to be the strongest cryptocurrency providing both transparency and anonymity to the transactions and its users by deploying the strong mathematics of zk-SNARKs.
We discussed the zero knowledge proofs which is a basic building block for providing the functionality to zk-SNARKs. It offers schnorr and sigma protocols with interactive and noninteractive versions. Non-interactive proofs are further used in Zcash transactions where the validation of sent transaction is proved by cryptographic proof.
Further, we deploy zk-SNARKs proofs following common reference string as public parameter when transaction is made. The proof allows sender to prove that she knows a secret for an instance such that the proof is succinct, can be verified very efficiently and does not leak the
secret. Non-malleability, small proofs and very effective verification make zk-SNARKs a classic tool in Zcash. Since we deal with NP problems therefore we have considered the elliptic curve cryptography to provide the same security like RSA but with smaller parameter size.
Lastly, we explain Zcash transaction process after minting the coin, the corresponding transaction completely hides the sender, receiver and amount of transaction using zero knowledge proof.
As future considerations, we talk about the improvements that can be done in term of decentralization, efficiency by comparing with top ranked cryptocurrencies namely Ethereum and Monero, privacy preserving against the thread of quantum computers and enhancements in shielded transactions.
In dieser Masterarbeit wurde die Entwicklung des Erregerspektrums und der Resistenz der Erreger gegen spezielle Antibiotika von 2010-2017 untersucht. Die untersuchten Proben wurden vom Medizinischen Zentrallabor Altenburg ausgewertet und stammten dabei aus Urinen, pulmonalen Materialien oder Blutkulturen. Innerhalb der Arbeit wurden mit dem assoziativen Datenanalyse-Tool und Reporting-System QlikView die Labordaten der untersuchten Jahre hinsichtlich der Entwicklung der Erregeranteile und deren Resistenz ausgewertet. Es wurden die häufigsten bakteriellen Erreger bei klinisch relevanten Infektionen ermittelt und ihr Verhalten gegen leitliniengerechte Antibiotika untersucht. Das Auftreten von multiresistenten Erregern konnte detektiert und deren Entwicklung analysiert werden. Die Materialien wurden getrennt voneinander untersucht und deren Ergebnisse gegenübergestellt.
In dieser Masterthesis wird evaluiert, wie gut sich Deep-Learning-Modelle für eine Toxizitätsbestimmung im digitalen Raum eignen. Hierfür wird die Transformer-Architektur anhand verschiedener Pre-Trainings auf BERT-, DistilBERT-, RoBERTa- und GPT-2-Basis mithilfe der toxisch-binär annotierten GermEval-Datensätze aus den Jahren 2018, 2019 und 2021 angepasst. Das Feintuning der Modelle findet sowohl mit Supervised-, als auch mit Semi-Supervised-Learning via GAN statt. Im Anhang dieser Arbeit steht der genutzte Programmcode zur Verfügung.
Das Feintuning via GAN stellt eine Besonderheit in der Herangehensweise automatisierter NLP-Aufgaben darf. Als Ergebnis dieser Arbeit kann deren Wirksamkeit in binären Textklassifizierungsaufgaben im deutschen Sprachraum bestätigt werden.
Onlinequellen wurden zum Zeitpunkt des Abrufs mithilfe des Firefox-Addons “SingleFile” in eine HTML-Datei gespeichert. Sowohl der HTML-Teil, als auch die Mediendateien, Stylesheets und Skriptdateien befinden sich komprimiert in der Datei. Jede Onlinequelle wurde während des Speichervorgangs bei woleet.io registriert, sodass später die Integrität der HTML-Datei geprüft werden kann. Hierfür speichert Woleet die Signatur und Zeitstempel einer Datei innerhalb der Bitcoin-Blockchain. Soll die Integrität einer Datei geprüft werden, kann dies über gildas-lormeau.github.io/singlefile-woleet/index.html erfolgen.
Die vorliegende Arbeit beschäftig sich mit der bildgebenden Darstellung zur Dokumentation verschiedener Verletzungsmuster. Der Fokus liegt auf den verschiedenen Techniken zur individuellen zweidimensionalen Wunderstellung sowie den Lösungsansätzen zu deren Gestaltung. Die texturbasierten Wunden dienen zur Darstellung fallspezifischer 3D-Menschenmodelle, um diese zur Tatortrekonstruktion einsetzten zu können.
In dieser Arbeit wird die Entwicklung einer Anwendung für das mobile Betriebssystem Android beschrieben, welche zwei Verfahren für die Berechnung der Entfernung zu einem kreisförmigen Marker implementiert. Hierfür werden Kernbestandteile der Auswertung von Kameradaten auf der Android-Plattform mit der OpenCV-Bibliothek erläutert und deren Einsatz in der Anwendung dargestellt. Die beiden Verfahren werden hinsichtlich ihrer Genauigkeit und Anwendbarkeit auf die mobile Plattform verglichen und ausgewertet.
Das Vitamin Biotin ist als Coenzym in verschiedene Vorgänge im Körper involviert und beeinflusst zudem auch das Wachstum und die Erhaltung von Epidermiszellen. Besonders bei der Stabilität und Gesundheit von Rinderklauen spielt dies eine große Rolle - ein Biotinstatus der Rinder könnte also der Prävention von diversen Klauenerkrankungen dienen. Die vorliegende Bachelorarbeit beschäftigt sich daher mit der Validierung eines ELISAs zur Bestimmung von Biotin in Rinderblut. Dafür wurden die Leistungsmerkmale Präzision, Richtigkeit, Wiederfindung, Linearität und Robustheit untersucht und die Ergebnisse diskutiert.
Methodenvergleich zur Hydroxyprolinbestimmung in Kollagenmaterialien von verschiedenen Tierarten
(2019)
Kollagen kommt ausschließlich bei Wirbeltieren vor und ist eines der bedeutsamsten Proteine im Reich der Säuger (Menschen inbegriffen). Etwa 25% aller Proteine eines Säugetieres sind Kollagene. Kollagen kommt hauptsächlich in Knochen, Unterhaut, Sehnen, Bändern, Knorpel und Blutgefäßen vor und gewährleistet dem Gewebe Struktur und Stabilität durch Ausbildung zugfester Kollagenfibrillen.
In der vorliegenden Bachelorarbeit geht es um den Einfluss personenbezogener Informationen auf die Wahl bei Passwörtern. Viele Nutzer verwenden oft persönliche Angaben in ihren Passwörtern, um sich diese leichter merken zu können. Im Rahmen dieser Arbeit soll analysiert werden, um welche Daten es sich dabei konkret handelt und in welchem Umfang diese vorkommen. Weiterhin soll untersucht werden mit welchen Verfahren, basierend auf grundlegenden Informationen zu einer Person, weiterer Kontext zu eben dieser Person ermittelt werden kann. Das entwickelte Programm zur Umsetzung der Verfahren soll Sicherheitsbehörden dabei unterstützen die richtigen Passwörter von Beweismitteln, die von hoher Relevanz für Ermittlungen sind, zeitnah zu bestimmen. Der zielgerichtete Angriff wird unter Verwendung eines personenbezogenen Wörterbuchs durchgeführt, das durch das in dieser Arbeit entwickelte Tool generiert wird.
Häufiger werden komplexere Fachanwendungen nicht mehr nach dem Rich-Client-Prinzip konzipiert, sondern in einer Web-Frontend-Backend-Architektur umgesetzt. Die Modellierung komplexer Geschäftsprozesse erfolgt meist nach einer serviceorientierten Architektur. Der Einsatz von Webservice-Technologien ist besonders für die technische Realisierung von serviceorientierten Architekturen geeignet. Neue Marktanforderungen von mobilen Geräten und höhere Entwicklungsgeschwindigkeiten fordern von Softwareherstellern noch flexiblere, nachhaltigere und dezentralere Lösungen. Microservices greifen das Problem auf und fokussieren die Modularisierung von monolithischen Systemen. Die Entwicklung unabhängiger Services, die einzeln erstellt und ausgeliefert werden können, tragen zu einer agilen Softwareentwicklung bei. Ziel der Arbeit ist es, eine Strategie für die Anbindung von Webservices in Projekten zu liefern. Neben der im Enterprise-Umfeld etablierten serviceorientierten Architektur wird der neuere Ansatz der unternehmensübergreifenden Microservice-Architektur aufgegriffen. Am Beispiel eines Prototyps werden die Rahmenbedingungen dargestellt, die für die Anbindung von verschiedenen Webservices erfüllt sein müssen. Zusätzlich werden Vorschläge gegeben, die die Funktionalitäten des Prototyps bei einem Ausfall externer Dienste sicherstellen.
In der letzten Dekade hat sich die Verwendung von Cloud-Computing für das verlässliche und kostengünstige Betreiben von IT-Ressourcen und Applikationen weitgehend etabliert. Für Anwendungsszenarien mit hochsensitiven Daten können jedoch inakzeptable Restrisiken in Bezug auf deren Vertraulichkeit und Integrität – insbesondere während der eigentlichen Datenverarbeitung – verbleiben. Mit Hilfe von Intel SGX ist die Entwicklung dahingehend abgesicherter Anwendungen möglich, eine Nutzung dessen Funktionalität durch bereits bestehende Applikationen dagegen nicht ohne Weiteres. Um diese vor Angriffen auf die Vertraulichkeit oder Integrität mittels SGX zu schützen, wurden in der Forschung verschiedene Ansätze zur Migration entwickelt. Insbesondere serviceorientierte, aus mehreren Einzeldiensten bestehende, Anwendungen bedürfen dafür jedoch einer ausführlichen Planung und strukturierten Vorgehens. Die vorliegende Masterarbeit hat das Ziel, ein grundlegendes Verständnis für SGX zu vermitteln und die Migration solcher Anwendungen zu vereinfachen. Dafür wird eine generische Methodik vorgestellt sowie anhand des Beispiels einer populären Webanwendung hinsichtlich ihrer Funktionalität, Sicherheit und Performanz evaluiert. Zusätzlich erfolgt die Diskussion der Migration von Container-Anwendungen sowie deren Besonderheiten und Möglichkeiten zur Orchestrierung.
Die chemischen Verfahren zur Sichtbarmachung latenter daktyloskopischer Spuren haben längst Einzug in die forensischen Labore erhalten und sind für den strafrechtlich anerkannten Identitätsnachweis unverzichtbar geworden. Dabei liegt der Fokus auf den anatomischen Merkmalen von Grundmustern und Minutien, welche einen zweifelsfreien Abgleich sichergestellter Spuren eines Tatorts mit denen eines Tatverdächtigen ermöglichen. In dieser Arbeit werden drei dieser etablierten Verfahren genauer untersucht und auf den Informationsgehalt der dritten Merkmalsebene überprüft. Dafür wird, anders als bei den herkömmlichen daktyloskopischen Methoden, eine mikroskopische Betrachtungsweise herangezogen. Unter gleichen Ausgangsbedingungen werden vorgefertigte Fingerabdruck-Präparate einer chemischen Behandlung unterzogen und im Anschluss nach einem festgelegten Qualitätsmaßstab bewertet. Hierbei sollen die mikroskopischen Auflösungsgrenzen bestimmt und die Brauchbarkeit solcher detaillierten Betrachtungsweisen eingestuft werden.
Mikrospektralphotometrie : Nachweis und vollständige Eliminierung von Blutspuren auf Textilfasern
(2022)
Der Nachweis des Blutes, seien es noch so minimale Mengen, ist bei den polizeilichen Ermittlungen von sehr hoher Bedeutung. Für den Nachweis sehr geringer Mengen Blut auf einzelnen Textilfasern wird die Mikrospektralphotometrie eingesetzt. Um den vorherrschenden Kenntnistand und eine Verifizierung dieser Methode ermöglichen zu können, werden verschiedene, mit Blut präparierte Faserarten, mit dieser Technik untersucht. Zudem werden verschiedene Reinigungsmittel getestet, um eine zerstörungsfreie Reinigung der Fasern von dem Blut zu ermöglichen. Damit kann das Farbspektrum der Fasern ohne die Beeinflussung von Blutanhaftungen aufgenommen werden. Dieses Spektrum ist in den polizeilichen Ermittlungen wichtig, um Spurenfasern dem Vergleichsmaterial zuordnen zu können.
Mixed Reality in Games
(2017)
In der vorliegenden Bachelorarbeit sollen Grenzen und Unterschiede der verschiedenen Bereiche der Mixed Reality aufgezeigt werden. Bei der Betrachtung werden die Bereiche Games und Game Design besonders betrachtet. Dabei wurden verschiedene Mixed Reality Anwendungen untersucht und klassifiziert. Diese Ergebnisse wurden verwendet, um ein Konzept für ein Spiel für Mixed Reality Geräte zu entwickeln.
Diese Arbeit ist sowohl für Studierende im Bereich Games als auch für Lehrkräfte in diesem Feld relevant. Für die Zusammenstellung der Arbeit wurden bereits vorhandene Schriftstücke über Mixed Reality und Games verwendet und zu einem Großteil theoretisch verarbeitet. Zum Abschluss der Arbeit wird ein Videospielkonzept für Mixed Reality vorgestellt.
Anomaly Detection is a very acute technical problem among various business enterprises. In this thesis a combination of the Growing Neural Gas and the Generalized Matrix Learning Vector Quantization is presented as a solution based on collected theoretical and practical knowledge. The whole network is described and implemented along with references and experimental results. The proposed model is carefully documented and all the further open researching questions are stated for future investigations.
Viele soziale Netzwerke gewähren oft keine Transparenz, wenn die Rede von Algorithmen ist. Es scheint nur ein sehr begrenztes Verständnis zu geben, wie die Algorithmen von sozialen Netzwerken arbeiten. Ausnahmslos wäre ein solches Verständnis für die IT-Forensik von großer Bedeutung. Demnach ist das Ziel dieser Arbeit die Entwicklung eines mathematisches Modells, welches den people you may know-Algorithmus von Facebook beschreiben könnte. Da nur wenig
Literatur zu dieser Thematik existiert, wurde der Algorithmus empirisch untersucht. Es wurde ein Botnetzwerk geschaffen, bestehend aus elf Facebook-Profilen, denen unterschiedliche Aufgaben zugeteilt wurden. Die Freundschaftsvorschläge der Bots wurden mit Hilfe eines Web Crawlers extrahiert und im Anschluss ausgewertet. Aus der Analyse der Datensätze ging hervor, dass das Erzeugen eines Freundschaftvorschlages zwischen Bots durch eine Anzahl unterschiedlicher Parametern möglich ist. Im mathematischen Modell wurde Bezug auf die Parameter genommen und für jeden dieser eine Gewichtung zugeteilt, um ihre Relevanz zum Generieren eines Freundschaftvorschlages zwischen zwei Profilen darzustellen. Welche Parameter verwendet wurden und wie die Gewichtungen dieser ausgefallen sind, wird ausführlich in dieser Arbeit erläutert.
A Protein is a large molecule that consists of a vast number of atoms; one can only imagine the complexity of such a molecule. Protein is a series of amino acids that bind to each other to form specific sequences known as peptide chains. Proteins fold into three-dimensional conformations (or so-called protein’s native structure) to perform their functions. However, not every protein folds into a correct structure as a result of mutations occurring in their amino acid sequences. Consequently, this mutation causes many protein misfolding diseases. Protein folding is a severe problem in the biological field. Predicting changes in protein stability free energy in relation to the amino acid mutation (ΔΔG) aids to better comprehend the driving forces underlying how proteins fold to their native structures. Therefore, measuring the difference in Gibbs free energy provides more insight as to how protein folding occurs. Consequently, this knowledge might prove beneficial in designing new drugs to treat protein misfolding related diseases. The protein-energy profile aids in understanding the sequential, structural, and functional relationship, by assigning an energy profile to a protein structure. Additionally, measuring the changes in the protein-energy profile consequent to the mutation (ΔΔE) by using an approach derived from statistical physics will lead us to comprehend the protein structure thoroughly. In this work, we attempt to prove that ΔΔE values will be approximate to ΔΔG values, which can lead the future studies to consider that the energy profile is a good predictor of protein binding affinity as Gibbs free energy to solve the protein folding problem.
Diese Arbeit vergleicht die drei populärsten Frontend-Frameworks in der Webentwicklung in Bezug auf barrierefreie Umsetzungsstrategien. Dabei wird der Begriff Barrierefreiheit definiert, aktuelle Standards dargestellt und diese dann anschließend methodisch innerhalb der gewählten Frameworks umgesetzt.
Modularität in 3D-Videospielumgebungen und Techniken zur Verwendung und Minimierung der Nachteile
(2017)
Diese Arbeit thematisiert die Vorteile und Nachteile der Verwendung von modularen Asset-Sets sowie den Arbeitsablauf bei der Erstellung dieser in einer Echtzeit-3D-Umgebung. Am Ende sollen der Produktionsaufwand der Assets sowie die zu erwartende Performance besser eingeschätzt werden können. Zudem soll der Leser Zugriff auf Techniken erhalten, mit denen sich die Nachteile durch die Verwendung von modularen Assets minimieren lassen.
Die vorliegende Arbeit beschäftigt sich mit der Anwendung der erweiterten DNA-Analyse innerhalb der Strafverfolgung. Dadurch ergeben sich sowohl Chancen als auch Risiken, welche vorgestellt werden. Dazu erfolgt die Betrachtung
verschiedener Testsysteme zur Bestimmung der phänotypischen Merkmale aus einer anonymem DNA-Spur und deren Genauigkeiten. Außerdem wird die Altersbestimmung von unbekannten DNA-Spuren beschrieben. Des Weiteren erfolgt die Prüfung des § 81 e Ⅱ 2 StPO auf seine Verhältnismäßigkeit. Anschließend leitet sich aus den verschiedenen Betrachtungsweisen eine persönliche Stellungnahme ab.
Die vorliegende Arbeit analysiert Monitoringdaten der photo-biologischen Wasserstoffproduktion sowie Nitrogenase- und Hydrogenaseaktivät anhand von Genexpressionsprofilen mit Rhodobacter sphaeroides Stamm 2.4.1. Die Kultivierung erfolgte mit verschiedenen Nährmedien (Referenzmedium, Ananasmedium, Traubenmedium) sowie unter anaeroben Bedingungen. Anhand eines Monitoring, der Wachstumsparameter sowie der Untersuchung von Genexpressionsprofilen konnten Rückschlüsse auf die Optimierung der Wasserstoffsynthese gezogen werden.
Die folgende Arbeit lehnt sich an die Hypothesen von Franz und Behringer et al. 2017 an. Zum einen wurde die Hypothese über die möglichen Funktionen des Blebbens von Skelettmuskelzellen dargelegt und zum anderen die Neuinterpretation über die Expression der Kreatinkinase unter ischämischen Dispositionen. Das Blebben, also die Bildung von Vesikeln unter Exozytose, ist in der Biologie bereits allseits bekannt. Die wichtigste Funktion ist die Übertragung von Signalstoffen zu den benachbarten Zellen oder auch Organen. Hier wird die Hypothese aufgestellt, dass das Blebben ein Schutzmechanismus vor der Nekrose bzw. Apoptose darstellen könnte.
Die Kreatinkinase ist bis dato als Biomarker für Myokardinfarkte bekannt. Jedoch wird vermutet, dass dieses Protein ebenfalls zum Schutzmechanismus beitragen könnte. In unseren Untersuchungen werden neben der Kreatinkinase auch die muskelspezifischen Biomarker Myostatin, Atrogin1 und MuRF1 mit einbezogen.
Zu Beginn des Versuches wurde eine primäre Muskelzellkultur etabliert und anschließend zu definierten Zeiten hypoxischen Bedingungen ausgesetzt. Im Zuge dessen wurde die RNA isoliert und die relativen Expressionen der oben genannten Biomarker mittels qRT-PCR ermittelt. Die Ergebnisse zeigen zwar eine Abhängigkeit zwischen der Expression und der Hypoxiedauer, jedoch sind diese teilweise von Probe zu Probe so unterschiedlich, dass bisher keine signifikante Aussage getätigt werden kann.
Da anhand einer Desminfärbung dargestellt werden konnte, dass die Zellkulturen eine enorm unterschiedliche prozentuale Anzahl an Muskelzellen besitzen, wird das möglicherweise ein Grund dafür sein, dass die Ergebnisse stark voneinander abwichen.
Das Ziel dieser Bachelorarbeit ist die Beschreibung und Analyse digitaler Anwendungen von Museen. Es wurde folgende Forschungsfrage definiert: Wie können museale Inhalte digital und interaktiv aufbereitet werden und wie werden sie für die Besucher eines Museums oder die Nutzer von digitalen musealen Angeboten lehrreich und interessant?
Um diese Forschungsfrage beantworten zu können, werden mögliche Verwendungs- und Aufbereitungsarten für museale digitale Anwendungen vorgestellt. Außerdem wird erläutert, wie solche Anwendungen ein positives Lernergebnis beim Nutzer hervorrufen können. Mit diesen Ergebnissen wurde ein Prototyp für eine digitale Anwendung über die Valdivia-Expedition am Museum für Naturkunde Berlin entwickelt. Dieser wurde in einem Nutzertest untersucht und die Ergebnisse werden vorgestellt.
So wird eine Übersicht über digitale museale Anwendungen gegeben und ein realisierbarer Einsatz vorgestellt. Die Möglichkeiten für den vielfältigen Einsatz und positive Auswirkungen für Museen und Nutzer zugleich werden aufgezeigt.
Möglichkeiten der technischen Umsetzbarkeit für die Erstellung eines digitalen Leichenmodells
(2021)
Diese Machbarkeitsstudie beschäftigt sich mit der Prüfung von Möglichkeiten der technischen Umsetzbarkeit für die Erstellung eines digitalen Leichenmodells. Anhand von Informationen der forensischen Bildgebung sowie der Oberfläche des Leichnams, soll die Anfertigung eines digitalen Leichenmodells erfolgen. Dafür wird zunächst der Leichnam durch eine postmortale Computertomografie sowie eine Angiografie basierend auf der Computertomografie dargestellt. Darauffolgend wird die Oberfläche durch Informationen eines handgeführten Laserscanners rekonstruiert. Unter Verwendung verschiedener Methoden lassen sich die erhobenen Daten mit denen der forensischen Bildgebung anreichern und kombinieren. Das Vorgehen sowie Herstellung des digitalen Leichenmodells wird näher betrachtet und eingehend erläutert. Abschließend soll das digitale Leichenmodell animiert in den rekonstruierten Tatort eingefügt werden, um den Tathergang bestmöglich wiederzugeben. Die Erkenntnisse der möglichen Abläufe werden folgend in der Machbarkeitsstudie diskutiert und beurteilt. Letztendlich erfolgt der Vergleich des verwendeten Laserscanners mit einem neueren Modell der gleichen Marke sowie des Laserscanverfahrens mit der Fotogrammmetrie.
Möglichkeiten und Grenzen der blender-internen Physik Engine zur Simulation von Schussverläufen
(2020)
The following work deals with the problem of digital crime scene reconstruction based on the simulation of the trajectory of a projectile. To be able to make a realistic realization of this trajectory, the physical laws as well as the external influences are explained. This knowledge is used in conjunction with the expertise of software technology to test appropriate parameter combinations for their efficiency. Therefore the focus is on the step-by-step parameterization of the trajectory using the open-source software Blender. The resulting possibilities and limitations of such a reconstruction are considered in a differentiated way
Eine Untersuchung des Netzwerkverkehrs von 4 verschiedenen mobilen Applikationen mit Hilfe der Comminity Edition der Burp Suite der Firma PortSwigger auf sicherheitsrelevante Schwachstellen sowie das Aufzeigen der Grenzen bei der die Burp Suite zur Untersuchung von Netzwerkverkehr verwendet werden kann.
Möglichkeiten zur Aufnahme und Kategorisierung von
Knochenveränderungen und deren Interpretation
(2019)
Diese Bachelorarbeit befasst sich mit der Aufnahme, Kategorisierung und Interpretation von Knochen verändernden Merkmalen. Ziel ist es, eine möglichst einheitliche und allgemein verständliche Methode zu entwerfen, die der Aufnahme von knöchernen Veränderungen dient und worauf aufbauend Klassifikationen erfolgen können. Diese wiederum soll dahingehend überprüft werden, ob eine Feststellung der Ursache möglich ist.
Cryptorchidism describes a disease, in which one or both testes do not descend into the scrotum properly. With a prevalence of up to 10%, cryptorchidism is one of the most common birth defects of the male genital tract. Despite its associated health risks and accompanying economic damage, resulting from surgery and losses in breeding, studies on canine cryptorchidism and its causes are relatively rare. In this study a relational database for genetic causes of cryptorchidism was established and used as a basis for the identification of candidate genes. Associated regions were analysed by nanopore sequencing with the goal to identify genetic variants correlated with cryptorchidism in German Sheep Poodle.
In dieser Bachelorarbeit wird die steigende Nutzung von computerbasierten Animationstechniken und ihre Auswirkungen auf die Popularität von handgezeichneten Animationen und Stop-Motion-Filmen analysiert und kritisch hinterfragt. Unter Animation sei in diesem Fall ein Bewegtbild in Form eines Films, einer Fernsehserie oder eines auf sonstige Weise verbreiteten Videos zu verstehen, welches ausschließlich unter Verwendung von Computern, Puppentrick oder gezeichneten Bildinhalten erstellt wurde. Animierte Elemente in Realfilmen sollen nicht berücksichtigt werden. So sind in Filmen, wie JASON AND THE ARGONAUTS (R.: Don Chaffey. USA 1963) oder AVATAR (R.: James Cameron. USA 2009), zwar animierte Elemente enthalten, jedoch dienen diese lediglich als Werkzeug zur Erweiterung der filmisch darstellbaren Realität. Diese Werke sind somit nicht als Animationsfilme kategorisiert und werden in dieser Arbeit nicht grundlegend behandelt. Jegliche Erwähnung dieser Art steht im direkten Zusammenhang zu ihrer Auswirkung auf die zugrunde liegende Animationsform. In dieser Arbeit wird erläutert, in welchem Maße das computergenerierte Bewegtbild in der Populärkultur eine Vorrangstellung einnimmt und welche geschichtlichen Hintergründe dazu führten. Dazu wird Zeichentrick vor allem auf seinen Kostenaufwand, die allgemeine Produktionsdauer, die benötigte Arbeiterschaft und seine Popularität in der Bevölkerung hin untersucht. All dies geschieht im Vergleich zu Computeranimation. Außerdem wird versucht, anhand globaler Vergleiche Lösungsansätze zu finden, mit deren Hilfe die Marktfähigkeit von 2D- und Stop-Motion-Animationsfilmen zukünftig gewährleistet bleiben kann. Das Thema lässt sich im Fachbereich Medien einordnen. Besonders Interessenten der Animationsfilmherstellung und Medienstudenten soll diese Abhandlung nützliche und wissenswerte Sachverhalte über die zugrunde liegende Kontroverse näherbringen.
Diese Bachelorarbeit behandelt die Entwicklung des Film Noir, von seinen Vorläufern bis hin zu seinen Nachfolgern beziehungsweise Weiterentwicklungen im Neo Noir. Unter Neo Noir werden dabei sowohl Filme als auch andere narrative Medien verstanden, die sich inhaltlich mit entsprechenden Thematiken befassen. Der Fokus liegt dabei auf modernen Videospielen und deren Vergleich mit zum Neo Noir gehörigen Spielfilmen. Untersucht werden vor allem die zentralen Motive von Noir-Erzählungen. Die Analyse findet anhand von je zwei besonders exemplarischen Filmen und Spielen statt. Dabei baut sie auf Kategorien auf, die zuvor unter Berücksichtigung der Fachliteratur erarbeitet wurden.
In Anbetracht des hohen Vernetzungsgrades der Wirtschaft stellen Cyberangriffe eine größere Gefahr dar denn je. Erfolgreiche Angriffe können heutzutage schwerwiegende Folgen haben und nicht nur die Wirtschaft, sondern auch die Politik beeinflussen. Somit werden gute Schutzmaßnahmen zunehmend wichtiger. Penetrationstests und Vulnerability Assessments helfen dabei Netzwerke sicherer zu gestalten und nach außen eine möglichst geringe Angriffsfläche zu bieten. Speziell Netzwerkscanner nehmen hier eine tragende Rolle ein, da sie automatisiert Schwachstellen finden und diese bewerten. Dennoch liefern nicht alle Netzwerkscanner die gleichen Resultate und bewerten Schwachstellen unterschiedlich. In dieser Arbeit sollen die vier der bekanntesten Netzwerkscanner hinsichtlich ihres Scanverhaltens, der Bewertung der Befunde, sowie der gefundenen False Positives und False Negatives verglichen werden. Letztendlich soll diese Arbeit dazu dienen, je nach Anwendungsfall den Scanner auszuwählen, der das beste Ergebnis liefert.
This Bachelor thesis investigates the learning rules of the Hebbian, Oja and BCM neuron models for their convergence to, and the stability of, the fixed points. Existing research is presented in a structured manner using consistent notation. Hebbian learning is neither convergent nor stable. Oja learning converges to a stable fixed point, which is the eigenvector corresponding to the largest eigenvalue of the covariance matrix of the input data. BCM learning converges to a fixed point which is stable, when assuming a discrete distribution of orthogonal inputs that occur with equal probability. Hebbian learning can therefore not be used in further applications, where convergence to a stable fixed point is required. Furthermore, this Bachelor thesis came to the conclusion that determining the fixed points of the BCM learning rule explicitly involves extensive calculation and other methods for verifying the stability of possible fixed points should be considered.
Computationally solving eigenvalue problems is a central problem in numerical analysis and as such has been the subject of extensive study. In this thesis we present four different methods to compute eigenvalues, each with its own characteristics, strengths and weaknesses. After formally introducing the methods we use them in various numerical experiments to test speed of convergence, stability as well as performance when used to compute eigenfaces, denoise images and compute the eigenvector centrality measure of a graph.
Das Ziel dieser Bachelorarbeit war die Analyse der organischen und anorganischen Inhaltsstoffe der höheren Wasserpflanzen Elodea nuttallii und Myriophyllum heterophyllum. Dazu wurden mithilfe von Atomspektrometrie und Gaschromatographie mit Massensektrometer-Kopplung Analysen durchgeführt. Es konnten interessante und für eine weitere Verwendung der Biomasse wertvolle Inhaltsstoffe identifiziert werden. Vor allem Linolsäure und α-Linolensäure für eine ernährungsphysiologische Verwendung, als auch β-sitosterol für pharmazeutische Zwecke konnten nachgewiesen werden.
Bei Hodenhochstand, auch Kryptorchismus genannt, handelt es sich um eine der am häufigs- ten auftretenden Störungen der Geschlechtsentwicklung bei Hunden. Die Ursachen für diese Krankheit sind bisher unklar. Es wird davon ausgegangen, dass es multifaktorielle Auslöser gibt. Um den genetischen Hintergrund dieser Krankheit bei der Rasse Altdeutscher Schafpudel zu betrachten, wurden in dieser Studie ausgewählte Hunde einer Zucht untersucht. In diesem Zusammenhang wurde eine Visualisierung der Verwandtschaftsverhältnisse einer vorangegangenen Studie um die untersuchten Individuen ergänzt. Die Nanoporensequenzierungen wurde für die Analyse von sechs Genloci genutzt. Diese Sequenzdaten wurden anschließend auf Sequenz- und Strukturvarianten untersucht. Diese Arbeit vergleicht die Resultate mit vorausgegangenen Untersuchungen, um einen Zusammenhang zwischen Kryptorchismus und einer detektierbaren genetischen Veränderung zu ermitteln.
Die vorliegende Arbeit befasst sich mit der Analyse der Europäischen Datenschutz-Grundverordnung. Das Hauptziel hierbei ist das Herausfiltern von Artikeln die im Zusammenhang mit Datenverarbeitung auf Blockchain eine besondere Relevanz haben. Außerdem wird, basierend auf den gefundenen Artikeln, eine Applikation geschrieben, die die Anforderungen einhält und trotzdem mit einer Blockchain kommuniziert.
Nutzung von CYTOF zur Detektion von ILC-Subpopulationen in der Haut von Patienten mit Psoriasis
(2022)
Psoriasis ist eine durch exogene und endogene Stimuli auslösbare, T-Zellen vermittelte Autoimmunerkrankung, die gekennzeichnet ist durch Hyperproliferation und veränderten Differenzierung von Keratinozyten in der Epidermis. Bei den Betroffenen bilden sich auf der Haut scharf begrenzte, rote oder mit weißen Schuppen bedeckte Papeln oder Plaques.
Man fand in den letzten Jahren heraus, dass eine neu entdeckte Lymphozyten Population, die sogenannten angeborenen lymphatischen Zellen (innate lymphoid cells (ILC)), einen Einfluss auf die Pathogenese der Erkrankung haben.
ILCs lassen sich anhand ihrer Oberflächenmarker in drei Gruppen einteilen. Besonders die Gruppe 3 der ILCs (ILC3) wurde in der Haut von Psoriasis-Patienten angereichert gefunden. Zum jetzigen Zeitpunkt ist jedoch nicht vollständig geklärt wie die ILCs vom Blut in das Gewebe migrieren.
Um ein besseres Verständnis über das Migrationsverhalten von ILCs bei Psoriasis zu erlangen, ist das Ziel der Arbeit, neue Subpopulation von ILCs zu identifizieren, die sowohl im Blut als auch auf dem Hautgewebe zu finden sind. Für die Etablierung dieser Methode wurden zuerst die im Blut von Psoriasis-Patienten und gesunden Patienten befindlichen ILCs durch Durchflusszytometrie von anderen Immunzellen getrennt. Mittels t-SNE-Algorithmus wurde anschließend innerhalb der ILC-Population nach Subpopulationen gesucht. Anhand von Oberflächenmarkern und fünf Chemokinrezeptoren, die unter anderem an der Migration beteiligt sind, konnten verschiedene ILC-Subpopulation identifiziert werden.
Um zu überprüfen, ob diese ILC-Subpopulation vom Blut ins Gewebe migrieren, sollten die ILC-Subpopulationen vom Blut anhand des Antikörperpanels der Durchflusszytometrie mittels „Imaging Mass Cytometry“ (IMC) im Gewebe von Psoriasis-Patienten identifiziert und lokalisiert werden. Vorteil von IMC gegenüber herkömmlicher Immunhistologie, ist die Nutzung von bis zu 40 parallel nutzbaren Markern im Gewebe. Dies ermöglicht die Suche nach ILC-Subpopulation durch die gleichzeitige Identifizierung von ILCs anhand von Oberflächenmarkern, als auch ihrer Chemokinrezeptoren.
In dieser Arbeit, konnte ein Antikörperpanel mit 30 Markern auf einem Gewebeschnitt untersucht und mittels der Programmiersprache R eine Analyse erstellt werden, die es erlaubt ILCs auf dem untersuchten Gewebe sichtbar zu machen, sowie die ILCs hinsichtlich der Expression ihrer Chemokinrezeptoren zu untersuchen.
Das Ziel dieser Arbeit besteht darin, die Gestaltung von Lern- und Therapiespielen an Beispiel von Prosodiya zu erfassen. Es wird sich mit den unterschiedlichen Formen von Therapiespielen auseinandergesetzt. Die dazugehörige Forschungsfrage lautet: Wie gestaltet man Therapiespiele? Um diese Frage zu beantworten, wird das Therapiespiel Prosodiya analysiert und sich mit dem Problem der Balance zwischen „Serious“ und „Game“ auseinandergesetzt.
Offshore Kriminalität : Herausforderungen in der Bekämpfung von Steuerhinterziehung und Geldwäsche
(2022)
Die vorliegende Arbeit befasst sich mit der Analyse der verschiedenen Bekämpfungs- und Präventionsmöglichkeiten für Geldwäsche und Steuerhinterziehung. Das Hauptziel ist dabei die Untersuchung von Problemen, die bei der derzeitigen Umsetzung solcher Maßnahmen auftreten, vor allem wenn die Straftaten mithilfe von Offshore-/ Briefkastenfirmen begangen wurden.
Mit der zunehmenden Verbreitung moderner Technologien entsteht auch eine hohe Missbrauchsgefahr. Um eine effektive Gefahrenabwehr weiterhin gewährleisten zu können, erfordert es die Ausweitung der Befugnisse der Sicherheitsbehörden, bzw. die Anpassung an die technischen Möglichkeiten, durch die Schaffung neuer gesetzlicher Grundlagen, die nun für die Online-Durchsuchung erarbeitet wurden. Fraglich ist, ob sich die Argumente des präventiven so einfach auf den repressiven Einsatz dieser Maßnahme übertragen lassen. Ein weiteres, ungleich schwereres Problem ist die Verwendung von
Sicherheitslücken zum Aufspielen der Maßnahme, vor allem bei der Repression, allerdings auch bei der Prävention. In diesem Zusammenhang stellt sich die Frage, ob die Ermittlungserkenntnisse im Strafprozess Beweiskraft besitzen.
Online-Durchsuchung und Quellen-TKÜ nach §§ 100b, 100a StPO als Instrumentarien der Strafverfolgung
(2018)
Der Inhalt dieser Arbeit beschreibt die Online-Durchsuchung und Quellen-Telekommu-nikationsüberwachung. Diese Maßnahmen im Kontext der Strafverfolgung wurden 2017 vom Gesetzgeber in §§ 100b, 100a StPO neu gefasst. Es handelt sich um einen verdeckten Zugriff auf ein informationstechnisches System durch eine Überwachungssoftware, um im Rahmen der Online-Durchsuchung sämtliche Inhalte einsehen und bei der
Quellen-Telekommunikationsüberwachung die Kommunikation aufzeichnen zu können.
Diese Arbeit erläutert einleitend die historische Entwicklung der Maßnahmen, die zum Gesetzgebungsverfahren geführt haben. Darauf aufbauend werden die rechtlichen Aspekte der Online-Durchsuchung und Quellen-Telekommunikationsüberwachung behandelt. Dazu zählen die betroffenen Grundrechte, die Straftatenkataloge und die Verfahrensvorschriften. Ein weiteres Themengebiet beschreibt die technischen Grundlagen im Hinblick auf die benötigte Funktionalität der Spähprogramme und Möglichkeiten zur Systeminfiltration. Der letzte Teil der Arbeit geht darauf ein, inwieweit diese Maßnahmen schon Einzug in die Strafverfolgung gefunden haben und welche Probleme noch überwunden werden müssen.
Diese Diplomarbeit zeigt zu Beginn die Risiken, die moderne Angriffe auf ein Produktionsnetzwerk darstellen, in mehreren Facetten auf. Um diesen möglichen Schaden für Unternehmen abzuwenden, wird eine mögliche Lösung vorgestellt, die diese Angriffe, die trotz bereits vorhandener Sicherheitsmaßnahmen erfolgreich sein können, erkennen kann. Diese Lösung wird planmäßig durch die Einbindung in die Infrastruktur eines Produktionsnetzwerkes umgesetzt. Um die volle Funktionalität sicherstellen zu können, wird die Lösung auch in einem separatem Testnetzwerk durch Powershell-Scripte und Pentesting-Tools, die in Kali Linux gebündelt sind, überprüft. Dies soll dem Schutz der vorhandenen, teils überholten Infrastruktur in der Produktion dienen, die durch ihr teilweise hohes Alter durch dieses Pentesting ausfallen könnten. Abschließend werden die ermittelten Ergebnisse bewertet. Ein Fazit über die Möglichkeiten der Optimierung sowie ein Ausblick in eine mögliche Zukunft runden diese Diplomarbeit ab.
Die Kryokonservierung gibt die Möglichkeit, Pflanzen als genetische Ressourcen über einen langen Zeitraum zu lagern. Dabei stellt sie eine sichere und kostengünstige Methode dar, die zudem frei von äußeren Umweltfaktoren ist. Die optimierte PVS2 Methode Dresden hat sich bei Fragaria bereits bewährt und wird fortan für diese Obstart im Julius Kühn-Institut Dresden verwendet. Bei Erstversuchen mit Wildbirnen 2019 zeigte sich für die Kryokonservierung noch deutliches Optimierungspotenzial. Die Regenerationsraten konnten in der vorliegenden Arbeit durch eine veränderte Präparationsweise signifikant gesteigert werden. Dabei lag der Fokus auf die unterschiedliche Anzahl der Hüllblätter des Primordien Gewebes. Zusätzlich wurde die Methode des slow coolings mit dormanten Knospen als Alternativmethode zur Anwendung von PVS2 getestet.
In vielen Polizeidienststellen ist die Optimierung des (digitalen) Asservatenmanagements ein zentrales Thema. Dies ist auch in der Kriminalpolizeiinspektion Saalfeld der Fall. Im Rahmen dieser Arbeit wurde das von der Thüringer Polizei genutzte Programm zur Spurenverwaltung “ZeSAR” um einen Reiter für die Asservierung von analogen Spuren erweitert und evaluiert. Grundlage hierfür waren die Erhebung einer Ist-Situation des zuvor herrschenden Asservatenmanagements und einer daraus resultierenden Problemanalyse. Weiterhin wurden Möglichkeiten diskutiert, wie das optimierte Asservatenmanagement auch auf digitale Spuren übertragen werden könnte. In diesem Bereich wurde erkannt,
dass die theoretischen Forschungsergebnisse bislang schwer in die Praxis übertragen werden konnten. Durch die vorliegende Arbeit wurde das Asservatenmanagement zunächst zugunsten der KPI Saalfeld qualitativ verbessert. Durch das anstehende Roll-Out des Asservaten-Reiters besteht die Möglichkeit, langfristig die landesweite Verwaltung zu optimieren.
Der Einsatz digitaler Mittel in der Tatortrekonstruktion soll in der Zukunft eine große Stütze in der Verbrechensaufklärung werden. Die Rekonstruktion des Bewegungsablaufs eines Opfers, ist als Bewegungsanalyse ein großer Teil dieses Forschungsgebietes. Um eine möglichst natürliche und anatomische korrekte Simulation der Bewegungsabläufe zu ermöglichen, werden Ragdollmodelle benötigt. Diese Arbeit befasst sich mit der Optimierung des Erstellungsprozesses und des Aufbaus dieser bereits bestehenden Ragdollmodelle, in der aktuellen forensischen Tathergangsrekonstruktion.
In der folgenden Arbeit wurde die Genauigkeit eines Nahinfrarotspektroskops, zur Schätzung ausgewählter Qualitätsparameter von getrockneten Grassilagen, validiert.
Anschließend wurde die Kalibration des NIR-Spektroskops optimiert und erneut validiert.
Des Weiteren wurden die untersuchten Silagen, anhand der nutritiven Qualitätsparameter, hinsichtlich ihrer Eignung zur Wiederkäuerfütterung bewertet.
Kläranlagen sollten nach Möglichkeit dem neusten Stand der Technik entsprechen, um die Betriebskosten so gering wie möglich zu halten. Bei älteren Kläranlagen besteht neben der Erneuerung die Möglichkeit, den Prozess der Abwasserbehandlung durch bestimmte Verfahren der Vor- bzw. Nachbehandlung zu ergänzen. Dies kann zu einer besseren Wirtschaftlichkeit und Nachhaltigkeit führen. In dieser Arbeit wurde die Optimierung der werksinternen Kläranlage der Molkerei Hainichen-Freiberg GmbH & Co. KG mithilfe einer vorgeschalteten Druckentspannungsflotationsanlage untersucht. Durch die Flotation werden suspendierte Stoffe im Abwasser abgeschieden. Die Reduktionsraten hinsichtlich des chemischen Sauerstoffbedarfs, des Gesamtstickstoffs und des Gesamtphosphats wurden bei verschiedenen Flock- und Fällmitteldosierungen ermittelt. Anschließend wurden die einzelnen Varianten hinsichtlich der Optimierung der werksinternen Kläranlage und der Wirtschaftlichkeit auf die spezifische Abwassermenge der Molkerei Hainichen-Freiberg GmbH & Co. KG beurteilt.
Eine Optimierung führt einerseits zu einer besseren Wirtschaftlichkeit der Anlage, andererseits kann der Prozess der Abwasserbehandlung nachhaltiger gestaltet werden, beispielsweise durch ein anaerobes Verfahren bei dem Biogas erzeugt wird.
In der vorliegenden Arbeit wird ein bereits bestehendes Annotationstool für die Übersetzung von Standardsprache in Leichte Sprache hinsichtlich seiner Usability analysiert. Anschließend werden, unter Verwendung von UI Design Patterns, Komponenten entwickelt, welche die Usability des Systems verbessern sollen. In einer Evaluation werden die Annahmen bezüglich der Usability-Verbesserungen geprüft.
Leichte Sprache bietet Menschen mit eingeschränktem Leseverständnis die Möglichkeit der selbstständigen Informationsbeschaffung. Der Übersetzungsprozess verläuft überwiegend intellektuell und ohne technische Unterstützung. Die vorliegende Arbeit beschäftigte sich mit der Optimierung
eines zur Unterstützung des Übersetzungsprozesses entwickelten Annotationstools für Leichte Sprache. Dabei sollte geprüft werden, ob anhand von UI-Designpattern sowie visuellen Anpassungen Verbesserungen der User Experience hervorgerufen werden konnten.
Es wurde zum einen ein IgG-ELISA zum spezifischen Nachweis von Anti-Dengue-Antikörpern in humanen Seren entwickelt und optimiert mit dem Schwerpunkt einer besseren Spezifität im Vergleich zu bereits auf dem Markt befindlichen ELISA-Tests. Zum anderen wurde eine real-time-PCR zum Nachweis von Dengueviren in humanen Seren mit gleichzeitiger Serotypenbestimmung entwickelt und optimiert
Diese Arbeit hat das Ziel, einen kontinuierlichen Prozess in einem Festbettreaktor zur mikrobiellen Entfernung von Sulfat und Schwermetallen aus Bergbauwasser zu optimieren. Hierfür wurden zunächst Vorversuche getätigt, in welchen die Aktivität von sulfatreduzierenden Bakterien (SRB) mit den Substraten Methanol und Acetat im pH-Bereich 5-8 und bei den Temperaturen 20°C und 30 °C untersucht wurde. Im Anschluss wurde aufbauend auf den Ergebnissen der Vorversuche der Bioreaktor in Betrieb genommen und in den kontinuierlichen Betrieb überführt. In dieser Phase wurden wichtige Prozessdaten für den Betrieb aufgenommen, die Verweilzeit sowie die Methanolkonzentration optimiert.
In the practice of software engineering, project managers often face the problem of software project management.
It is related to resource constrained project scheduling
problem. In software project scheduling, main resources are considered to be the employees with some skill set and required amount of salary. The main purpose of software
project scheduling is to assign tasks of a project to the available employees such that the total cost and duration of the project are minimized, while keeping in check that
the constraints of software project scheduling are fulfilled. Software project scheduling (SPSP) has complex combined optimization issues and its search space increases exponentially when number of tasks and employees are increased, this makes software project scheduling problem (SPSP) a NP-Hard problem. The goal of software project scheduling problem is to minimize total cost and duration of project which makes it multi-objective problem. Many algorithms are proposed up till now that claim to give near optimal results for NP-Hard problems, but only few are there that gives feasible set of solutions for software project scheduling problem, but still we want to get more efficient algorithm to get feasible and efficient results.
Nowadays, most of the problems are being solved by using nature inspired algorithms because these algorithms provide the behavior of exploration and exploitation. For solving
software project scheduling (SPSP) some of these nature inspired algorithms have been used e.g. genetic algorithms, Ant Colony Optimization algorithm (ACO), Firefly etc.
Nature inspired algorithms like particle swarm optimization, genetic algorithms and Ant Colony Optimization algorithm provides more promising result than naive and greedy algorithms. However there is always a quest and room for more improvement. The main purpose of this research is to use bat algorithm to get efficient results and solutions for software project scheduling problem. In this work modified bat algorithm is implemented where a different approach of random walk is used. The contributions of this thesis are to: (1) To adapt and apply modified multi-objective bat algorithm for solving software project scheduling (SPSP) efficiently, (2) to adapt and apply other nature inspired algorithms like genetic algorithms for solving software project scheduling (SPSP) and (3) to compare and analyze the results obtained by applied nature inspired algorithms and provide the conclusion.
Die forensische Daktyloskopie findet seit über 100 Jahren Anwendung in der Kriminalistik zur Identifizierung von Personen, welche die für jede Person einzigartige Anordnung von Papillarleisten auf einer Oberfläche hinterlässt. Dabei kann oft nur das Muster des Fingerabdruckes forensisch relevante Informationen bereitstellen. Untersucht man den Fingerabdruck jedoch auch auf Anhaftstoffe, so können sich für Ermittler neue Erkenntnisse über den Träger ergeben und womit er in Berührung kam. In der vorliegenden Arbeit wird untersucht, ob sich der Ansatz der optischen Detektion mit forensischen Lichtsystemen auch in die Daktyloskopie übertragen lässt und den Träger eines Fingerabdruckes mit Anhaftungen von Brandbeschleuniger oder Schmauchspuren als solchen identifizieren kann.
Die vorliegende Arbeit befasst sich umfangreich mit der Thematik der »Security Incident and Event Management« (SIEM) Systeme und ihrer Installation, Organisation und Anwendung in kleinen und mittleren Unternehmen (KMU). Am Anfang wird dem Leser die Funktionsweise eines solchen SIEM Systems erklärt, um im Anschluss am Beispiel der miteinander interagierenden Softwares Elasticsearch, Logstash, Beats und Kibana schrittweise in einer IT-Infrastruktur zu implementieren. Außerdem wird die Eignung eines solchen Systems für kleine und mittlere Unternehmen in gesetzlicher und organisatorischer Hinsicht auf Basis zweier Studien untersucht, welche den aktuellen Zustand der Thematik IT-Sicherheit in KMU widerspiegeln. Das Ziel der Arbeit ist es festzustellen, in welchem Rahmen ein SIEM System in KMU nötig ist und helfen kann, um die IT-Sicherheit des Unternehmens zu fördern. Dabei wird sowohl auf die Installation, als auch auf die Nutzung eins SIEM Systems unter den in KMU vorherrschenden Bedingungen betrachtet.
Die Bachelorarbeit befasst sich mit dem Phänomen der kryptierten Kommunikation. Diese wurde vor allem im Bereich des organisierten Betäubungsmittelhandels sowie -schmuggels zur Planung von Straftaten genutzt. Zunächst werden die Grundlagen im Bereich der Organisierten Kriminalität sowie des Rauschgifthandels und -schmuggels in Deutschland vermittelt. Anschließend wird auf die drei Anbieter Anøm, EncroChat und Sky ECC, die aktuell ausgewertet werden, eingegangen. Hierbei wird unter anderem die Datenerhebung dargestellt und eine Diskussion über die aktuell bestehende Beweiszulassung vor Gericht durchgeführt. Abschließend werden die Einflüsse der Kryptohandys sowie die polizeilichen Ermittlungserfolge dargelegt. Die Bachelorarbeit wird in Bezug auf die folgende These bearbeitet: „Kryptohandys weisen einen signifikanten Einfluss auf den Betäubungsmittelhandel im Bereich der organisierten Kriminalität in Deutschland auf und gelten in den meisten Fällen als wichtigstes Tat- sowie Beweismittel“.
Die Arbeit beschäftigt sich mit der orientierenden Untersuchung von Abwasserprobenahmestellen in Abwasseraufbereitungsanlagen des ZWA Hainichens auf den Parameter Legionella spec.. Es sollen eventuelle Gefährdungspotentiale aufgedeckt werden, um die Arbeitssicherheit vor Ort zu gewährleisten. Weiterhin soll eine Aussage darüber getroffen werden, welche der beiden angewandten Methoden besser für den Nachweis der Legionellen in den Anlagen geeignet ist. Der Nachweis erfolgt nach der DIN 11731:2017 und dem Legiolert®-Verfahren.
Die vorliegende Arbeit befasst sich mit der Erstellung eines Patch Management-Konzeptes für Linux Server. Die Erstellung des Konzeptes basiert am Beispiel der Tirol Kliniken GmbH und soll in weiterer Folge im Unternehmen umgesetzt werden. In Zusammenhang mit den IT-Schutzzielen wird die Notwendigkeit dieser Schutzmaßnahme Patch Management erläutert und unter Berücksichtigung unternehmensspezifischer Gegebenheiten, eine geeignete Lösung erarbeitet. Ziel soll dabei sein, eine möglichst automatisierte Patch Management-Lösung zu realisieren.
Path decomposition of a graph has received an important amount of interest over the past decades because of its applications in algorithmic graph theory and in real life problems. For the computation of a path decomposition of small width, we use different heuritics approaches. One of the most useful method is by Bodlaender and Kloks. In this thesis, we focus on the computation, applications, transformation and approximation of a path decomposition of small width.
It is easy to convert a path decomposition in to nice path decomposition with same width, which is more convinent to use to find the graph parameters like independent sets, chromatic polynomials etc. Inspired by [28], we find an algorithm to compute the chromatic polynomial of a graph via nice path decomposition with small width.
The Infinica product suite consists of multiple individual microservice applications, mainly gathered around Infinica Process Engine which allows the execution of highly individualised process definitions. For estimating process performance, a layered queuing network approach has been applied. In the first step this required the implementation of a basic modelling framework. Subsequently the implemented framework was used to evaluate the applicability of the approach by creating two models and comparing them with actual performance measurements. Although the calculated results deviated from the expected results, analysis showed that the differences may
derive from an inaccurate model. Nevertheless the general approach seems to be appropriate for the given application as well as for microservices in general, especially when extended with advanced modelling techniques, as the analysed modelled results appear consistent.
Die Lern- und Gedächtnisforschung gehört zu den wichtigsten Forschungsgebieten. Die Neusynthese von Proteinen, welche im Laufe des Alterungsprozesses abnimmt, spielt dabei eine wichtige Rolle für die Lernprozesse. Für die Proteinbiosynthese ist der eukaryotischer Elongationsfaktor 2 (eEF2)-Signalweg essentiell. Dieser ist für die Regulation des eEF2 verantwortlich. Der eukaryotische Elongationsfaktor 2 liegt im Alter vermehrt in der inaktiven Form vor, was ein potenzieller Grund für die verminderte Proteinbiosyntheserate sein könnte. Mögliche Untersuchungsansätze bieten hierfür bestimmte Pharmaka die einen Einfluss auf den eEF2-Signalweg haben. Aber auch andere Wirkstoffe, die keinen Einfluss auf den eEF2-Signalweg haben, könnten für die Proteinsynthese förderlich sein.
In dieser Arbeit wurden ausgewählte Wirkstoffe und deren möglicher Einfluss auf die Proteinsynthese sowie den Alterungsprozess auf Neuronenkulturen untersucht. Dies geschah mittels der Immunozytochemie/ Immunofluoreszenz, bioorthogonal non-canonical amino acid tagging (BONCAT) und fluoreszent non-canonical aminoacid tagging (FUNCAT) sowie der Western-Blot Analyse. Für diese Arbeit wurden unterschiedlich lang kultivierte primäre kortikale Neuronenkulturen verwendet.
Die in dieser Arbeit aufgelisteten Ergebnisse zeigen, dass die eingesetzten Wirkstoffe einen bestimmten Effekt auf die verwendeten primären kortikalen Neuronenkulturen besitzen. Weiterhin wurden in den 60 Tage alten Neuronen ein erhöhtes Signal de novo synthetisierter Proteinen in den dendritischen Spines festgestellt.
Jedoch war es mit den verwendeten Konditionen nicht möglich einen Eingriff in den eEF2-Signalweg aus zu üben. Nach den jeweiligen Stimulationen der eingesetzten Wirkstoffe, kam es weder zu einer Veränderung des eEF2-Signalwegs noch zu einer großen Veränderung der Proteinbiosynthese.
Diese Arbeit zeigt, dass die eingesetzten Wirkstoffe einen eventuell erhöhten Informationsaustausch bewirken. Des Weiteren wurde die Hypothese der im Alter abnehmenden Proteinbiosynthese bekräftigt.
Phishing Bedrohungen in Unternehmen : eine Untersuchung von Angriffstrends und Schutzmaßnahmen
(2023)
Diese Bachelorarbeit befasst sich mit Phishing Bedrohungen für Unternehmen, sowohl Angriffstrends als auch Schutzmaßnahmen.
Ziel der vorliegenden Arbeit ist es, bisher getroffene Schutzmaßnahmen zu analysieren und ihre Wirksamkeit anhand von zwei ausgewählten Fallbeispiele zu untersuchen. Dafür werden die Phishing Angriffe auf die amerikanischen Unternehmen „Twitter“ und „Uber“ genauer betrachtet und warum diese erfolgreich waren. Es soll beurteilt werden, ob die vorgestellten Leitfäden und Schutzmaßnahmen diese beiden Phishing Angriffe hätten verhindern können. Die Untersuchung zeigte, dass die gängigen Schutzmaßnahmen und das Einhalten von Leitfäden nicht ausgereicht haben, um die Unternehmen vor einem erfolgreichen Phishing Angriff zu schützen. Außerdem kommt dem Mensch bei der Bekämpfung von Phishing eine viel zu große Bedeutung zu und vernachlässigt das Handeln auf Managementebene.
Die vorliegende Arbeit befasst sich mit den Herausforderungen, die bei der Verwendung von Photogrammetrie für Computerspiele entstehen. Ziel der Arbeit ist es, die Lösungsmöglichkeiten für diese Probleme zu ergründen und ihre Vor- und Nachteile zu beleuchten. Die Erkenntnisse werden am Ende der Arbeit in einem Leitfaden zusammengefasst, der den richtigen Umgang mit der Technik beschreibt.
Diese Arbeit behandelt das Thema der Sichtbarmachung von Fingerabdrücken, sowie deren photogrammetrische Aufnahme. Dabei wird die Frage geklärt, ob der Qualitätsverlust eines photogrammetrischen Scans das Erkennen des Grundmusters, einzelner Minuten und eventuell auch kleineren Strukturen beeinträchtigt. Es werden die angewandten Methoden zur Sichtbarmachung, Sicherung und Photogrammmetrie präsentiert, sowie die daraus resultierenden Ergebnisse.
Diese Arbeit behandelt die phylogenetische und phylogenomische Analyse der Schlauchpilz-Ordnung Saccharomycetales. In diesem Rahmen wurden über Hundert zugehörige Spezies auf ihre Phylogenese mithilfe von diversen modernen Verfahren und Implementierungen untersucht. Die Basis für die quantitativ umfangreichen Analysen bildeten ausgewählte Genom-Sequenzierungen und davon abgeleitete Gen- und Protein-Sequenzen. Diese Abhandlung setzt eigene Ergebnisse darüber hinaus in einen umfassenden wissenschaftsgeschichtlichen Kontext und zeigt Parallelen, wichtige Fragen und Probleme hierzu auf.