Refine
Document Type
- Bachelor Thesis (703)
- Master's Thesis (180)
- Diploma Thesis (56)
Year of publication
Keywords
- Computerforensik (56)
- Softwareentwicklung (52)
- Computersicherheit (48)
- Videospiel (45)
- Maschinelles Lernen (44)
- Blockchain (25)
- Computerspiel (23)
- Datensicherung (21)
- Virtuelle Realität (18)
- Programmierung (17)
- Algorithmus (16)
- Forensik (14)
- Künstliche Intelligenz (14)
- Android <Systemplattform> (13)
- Fotogrammetrie (13)
- Daktyloskopie (12)
- Neuronales Netz (12)
- Altersbestimmung (11)
- Gerichtliche Wissenschaften (10)
- Vektorquantisierung (10)
- Blut (9)
- Computerkriminalität (9)
- Kryptologie (9)
- Virtuelle Währung (9)
- App <Programm> (8)
- Bildverarbeitung (8)
- Digitalisierung (8)
- E-Learning (8)
- Molekularbiologie (8)
- Software (8)
- Biometrie (7)
- Biotechnologie (7)
- Cloud Computing (7)
- DNS (7)
- Deep learning (7)
- Malware (7)
- Mobiles Endgerät (7)
- Social Media (7)
- Visuelle Wahrnehmung (7)
- Bioinformatik (6)
- Dreidimensionale Rekonstruktion (6)
- Dreidimensionales Modell (6)
- Graphentheorie (6)
- Internet der Dinge (6)
- Schnittstelle (6)
- CAN-Bus (5)
- Datenbank (5)
- Datenschutz (5)
- Erweiterte Realität <Informatik> (5)
- Genetischer Fingerabdruck (5)
- Kinderpornografie (5)
- Lernendes System (5)
- Projektmanagement (5)
- Rechnernetz (5)
- Rechtsmedizin (5)
- Rekonstruktion (5)
- Soziales Netzwerk (5)
- Spiel-Engine (5)
- Tatrekonstruktion (5)
- Ultraviolettspektroskopie (5)
- Vektor (5)
- Visualisierung (5)
- Benutzerfreundlichkeit (4)
- Bildgebendes Verfahren (4)
- Bitcoin (4)
- CRISPR/Cas-Methode (4)
- Cluster-Analyse (4)
- Cytologie (4)
- Daktylogramm (4)
- Datenbanksystem (4)
- Deutschland (4)
- Gerichtliche Entomologie (4)
- Geschlechtsbestimmung (4)
- Gesichtserkennung (4)
- Instant Messaging (4)
- Internet (4)
- Lernsoftware (4)
- Objekterkennung (4)
- Tatort (4)
- Zeitreihe (4)
- Anwendungssoftware (3)
- Autonomes Fahrzeug (3)
- Beweismittel (3)
- Bildmaterial (3)
- Biochemie (3)
- Biogasgewinnung (3)
- Biomarker (3)
- Blutspur (3)
- Blutuntersuchung (3)
- DNA Barcoding (3)
- Datenmanagement (3)
- Datenspeicherung (3)
- Dokumentenverwaltungssystem (3)
- Erzähltechnik (3)
- Gebäudeleittechnik (3)
- Gerichtliche Anthropologie (3)
- Hassrede (3)
- Identität (3)
- Identitätsverwaltung (3)
- Infrastruktur (3)
- Internetkriminalität (3)
- Klein- und Mittelbetrieb (3)
- Kläranlage (3)
- Kollagen (3)
- Kriminalität (3)
- Kryptorchismus (3)
- Manipulation (3)
- Massively Multiplayer Online Role-Playing Game (3)
- Mikrocontroller (3)
- Mobilfunk (3)
- Narrativität (3)
- Netzwerktopologie (3)
- Online-Durchsuchung (3)
- Passwort (3)
- Proteine (3)
- RNS (3)
- Rollenspiel (3)
- SARS-CoV-2 (3)
- Schimmelpilze (3)
- Sequenzanalyse <Chemie> (3)
- Simulation (3)
- Smartphone (3)
- Softwaretest (3)
- Spurenauswertung (3)
- Spurensicherung (3)
- Stammzelle (3)
- Textverarbeitung (3)
- Video (3)
- Wahrnehmung (3)
- Webanwendung (3)
- Zelle (3)
- 3D-Technologie (2)
- Abwasser (2)
- Active Directory (2)
- Animationsfilm (2)
- Anthropologie (2)
- Antikörper (2)
- Arbeitsablauf (2)
- Audiodatei (2)
- Automatische Identifikation (2)
- Automatische Spracherkennung (2)
- Biogas (2)
- Biologischer Abbau (2)
- Biomedizin (2)
- Browser (2)
- COVID-19 (2)
- Car-to-Car-Kommunikation (2)
- Client-Server-Konzept (2)
- Computeranimation (2)
- Computergrafik (2)
- Computersimulation (2)
- Cyberattacke (2)
- Daten (2)
- Datenanalyse (2)
- Datenerfassung (2)
- Datenübertragung (2)
- Design (2)
- Dezellularisierung (2)
- Docker <Software> (2)
- Drahtloses lokales Netz (2)
- Durchflusscytometrie (2)
- Eingebettetes System (2)
- Elektronischer Fingerabdruck (2)
- Enterprise-Resource-Planning (2)
- Extraktion (2)
- Extrazelluläre Matrix (2)
- Fahrerassistenzsystem (2)
- Filmanalyse (2)
- Firewall (2)
- Fitness (2)
- Fotorealismus (2)
- Futtermittel (2)
- Gamification (2)
- Genanalyse (2)
- Geschäftsmodell (2)
- Gesichtsschädel (2)
- Graph (2)
- Hand (2)
- Heuristik (2)
- Hochschule (2)
- Immunohistologie (2)
- Immunsystem (2)
- Java <Programmiersprache> (2)
- Knochen (2)
- Kommunikationsprotokoll (2)
- Kommunikationssystem (2)
- Kraftfahrzeug (2)
- Krankenunterlagen (2)
- Krebs <Medizin> (2)
- Kriminalistik (2)
- Kriminaltechnik (2)
- Kriminologie (2)
- Kryokonservierung (2)
- Kryptosystem (2)
- Kunst (2)
- LINUX (2)
- Labormedizin (2)
- Legionella (2)
- Lernspiel (2)
- LoRaWAN (2)
- Lunge (2)
- Maschinelles Sehen (2)
- Medizin (2)
- Mikrofinanzierung (2)
- Mikroorganismus (2)
- Motivationspsychologie (2)
- Museum (2)
- Nanopartikel (2)
- Netzhaut (2)
- Online-Shop (2)
- Optische Kohärenztomografie (2)
- Organisiertes Verbrechen (2)
- Pathogener Mikroorganismus (2)
- Penetrationstest (2)
- Pflanzen (2)
- Phishing (2)
- Proteinfaltung (2)
- Pudel (2)
- RFID (2)
- Realistische Computergrafik (2)
- Recycling (2)
- Schuppenflechte (2)
- Semantik (2)
- Serious game (2)
- Server (2)
- Sicherungstechnik (2)
- Skelettfund (2)
- Software-defined networking (2)
- Softwarearchitektur (2)
- Speicherprogrammierte Steuerung (2)
- Spieler (2)
- Spielverhalten (2)
- Steuergerät (2)
- Therapie (2)
- Tissue Engineering (2)
- Trojanisches Pferd <Informatik> (2)
- Tumor (2)
- Unity <Spiel-Engine> (2)
- Unternehmen (2)
- Videospiel , Virtuelle Realität (2)
- Virtualisierung (2)
- Virtuelles Laboratorium (2)
- Wasserstofferzeugung (2)
- Web Services (2)
- Webentwicklung (2)
- Weichteile (2)
- Whatsapp (2)
- Windows 10 (2)
- Wissensvermittlung (2)
- World Wide Web (2)
- Zeitreise (2)
- Zellkultur (2)
- Zugang (2)
- iOS (2)
- Ökosystem (2)
- 5G (1)
- Abfüllverfahren (1)
- Abwasserableitung (1)
- Abwasseraufbereitung (1)
- Abwasserreinigung (1)
- Abwasserreinigung , Cerdioxid , Nanopartikel (1)
- Achterbahn (1)
- Ackerbohne (1)
- Ackerschmalwand (1)
- Adventivwurzel , Petunie , Steckling , Strigolactone (1)
- Alkoholkonsum (1)
- Altpapier (1)
- Amazon Alexa (1)
- Ammoniumverbindungen (1)
- Amyloid (1)
- Anatomie (1)
- Android <Systemplattform> , Malware (1)
- Angriffsvektor (1)
- Animationsfilm , Filmanalyse (1)
- Antenne (1)
- Anthropometrie (1)
- Antigen (1)
- Antigenrezeptor (1)
- Antikörper , Natürliche Killerzelle , Streptavidin , Tumorantigen (1)
- Anwendungssystem (1)
- Anämie (1)
- App Inventor (1)
- Arbeitsgestaltung (1)
- Arbeitsverhalten (1)
- Arbeitszeiterfassung (1)
- Archetypus (1)
- Architektur (1)
- Archivierung (1)
- Archivsystem (1)
- Arthrose (1)
- Arzneimittel (1)
- Assembly (1)
- Auge (1)
- Augenfolgebewegung (1)
- Augenkrankheit (1)
- Authentifikation (1)
- Automation (1)
- Autonomer Agent (1)
- Außerirdische Intelligenz (1)
- Bakterielle Infektion (1)
- Bakterien (1)
- Bangladesch (1)
- Bank (1)
- Barrierefreiheit (1)
- Bedrohungsvorstellung (1)
- Bekämpfung (1)
- Benchmarking (1)
- Benutzerverhalten (1)
- Bergbau (1)
- Berichterstattung (1)
- Betriebssystem (1)
- Betrug (1)
- Betäubungsmitteldelikt (1)
- Bewegtes Bild , App <Programm> (1)
- Bewegung (1)
- Bewegungsapparat (1)
- Biene <Gattung> (1)
- Bildanalyse , Fließgewässer (1)
- Bilderkennung (1)
- Bildnismalerei (1)
- Bildsegmentierung (1)
- Biochemische Analyse (1)
- Biodiversität (1)
- Bioelektrochemie (1)
- Biofilm (1)
- Biofouling , Geothermik , Biotechnologie (1)
- Biogasanlage , Prozessanalyse (1)
- Biogasgewinnung , Biomasse (1)
- Biogasgewinnung , Nuttalls Wasserpest (1)
- Biogastechnik (1)
- Biokraftstoff (1)
- Biologische Sicherheit (1)
- Biomarker , Immunassay (1)
- Biomarker , Krebs <Medizin> (1)
- Biomasseproduktion (1)
- Biotechnolgie (1)
- Biotin (1)
- Bioverfügbarkeit (1)
- Bitmap-Grafik (1)
- Blaue Fleischfliege (1)
- Blender <Programm> (1)
- Blutalkoholbestimmung (1)
- Blutuntersuchung , Notfallmedizin , Laborparameter (1)
- Bodenbearbeitung (1)
- Bodenbiologie (1)
- Bodenbiologie , Bodenbearbeitung , Kalium , Ionenselektive Elektrode (1)
- Bodennutzung (1)
- Bodenorganismus (1)
- Brauchwasser (1)
- Brücke (1)
- Business Intelligence (1)
- C <Programmiersprache> (1)
- C++ (1)
- CAN-Bus , Datenlogger (1)
- CRIPR/Cas-Methode (1)
- Calciummangel (1)
- Campbell, Joseph (1)
- Candida albicans , Infektion (1)
- Cannabinoide (1)
- Cellulasen (1)
- Cellulose (1)
- Charakterdesign (1)
- ChatGPT (1)
- Chatbot (1)
- Chemikalie (1)
- Chemische Biologie (1)
- Chemisches Labor (1)
- Chemokine (1)
- Chemotherapeutikum (1)
- Chiffrierung (1)
- Chipkarte , Betriebssystem , Authentifikation (1)
- Chipkarte , Nahfeldkommunikation (1)
- Chromatographie (1)
- Client (1)
- Cluster , Cluster-Analyse (1)
- Cluster <Datenanalyse> (1)
- Codegenerierung (1)
- Codierungstheorie (1)
- Computergrafik , Dreidimensionale Computergrafik (1)
- Computerlinguistik (1)
- Computerspiel , Bildung , Computerunterstütztes Lernen (1)
- Computerspiel , Erzähltechnik (1)
- Computerspiel , Fotogrammetrie (1)
- Computerspiel , Rollenspiel , Abenteuerspiel , Virtuelle Realität (1)
- Computerspiel , Softwareentwicklung , Verkaufstechnik (1)
- Computerspiel , Spielkonsole , Softwareentwicklung (1)
- Computerspielindustrie (1)
- Computertomografie (1)
- Computerunterstütztes Lernen (1)
- Computerunterstütztes Verfahren (1)
- Concept-art (1)
- Container (1)
- Container <Informatik> (1)
- Content Management (1)
- Convolutional Neural Network (1)
- Corporate Design (1)
- Corporate Network (1)
- Cyanide (1)
- Cytotoxizität (1)
- DNS , Geschlechtsbestimmung (1)
- DNS-Methyltransferase (1)
- DNS-Origami (1)
- Darknet (1)
- Darstellung (1)
- Data Mining (1)
- Data-Warehouse-Konzept (1)
- Dateiformat (1)
- Datenaustausch , iOS , MacOS , Framework <Informatik> (1)
- Datenbank , Web-Anwendung (1)
- Datenbanksystem , Softwareentwicklung (1)
- Datenfluss (1)
- Datenintegration (1)
- Datenlogger (1)
- Datenschutz-Grundverordnung , Datenschutz (1)
- Datenverknüpfung (1)
- Datenverwaltung (1)
- Debugging (1)
- Deepfake (1)
- Denkspiel (1)
- Dermatomykose (1)
- Desinfektion (1)
- Desinformation (1)
- Desktop (1)
- Desktop-Publishing (1)
- Diagnostik (1)
- Diclofenac (1)
- Digitale Daten (1)
- Digitale Signalverarbeitung (1)
- Digitalkamera (1)
- Dilemma (1)
- Dimethoat (1)
- Diskrete Mathematik (1)
- Diskreter Logarithmus (1)
- Distraktion (1)
- Distributionspolitik (1)
- Dokumentverarbeitung (1)
- Drahtloses vermaschtes Netz (1)
- Dreidimensionale Computergrafik (1)
- Dunkelziffer (1)
- Düngemittel (1)
- Dürrestress (1)
- E-Learning , Lernspiel (1)
- E-Scooter (1)
- Echtzeitbildverarbeitung (1)
- Echtzeitsimulation (1)
- Echtzeitsystem (1)
- Edge computing (1)
- Eigendynamik (1)
- Eigenwertproblem (1)
- Eindringerkennung (1)
- Einzelarbeitsplatz (1)
- Electronic Commerce (1)
- Elektrizitätserzeugung (1)
- Elektrizitätsversorgungsnetz (1)
- Elektrokardiografie (1)
- Elektronischer Zahlungsverkehr (1)
- Elektrostimulation , Stammzelle , Knochenbildung (1)
- Emotionales Verhalten (1)
- Endokrin wirksamer Stoff (1)
- Endoskop (1)
- Energieversorgung (1)
- Entwicklung (1)
- Enzymatische Analyse , Denguevirus (1)
- Enzyme-linked immunosorbent assay , Maus , Norovirus (1)
- Epidemiologie (1)
- Epigenetik (1)
- Epitop (1)
- Erfolgsfaktor (1)
- Erpressung (1)
- Erzaufbereitung (1)
- Ethereum (1)
- Event-Marketing (1)
- FT-IR-Spektroskopie (1)
- Facebook (1)
- Fehleranalyse (1)
- Feldbus (1)
- Fernsehserie (1)
- Fertigungsanlage (1)
- Festplatte (1)
- Feuchtgebiet (1)
- Filmarchitektur (1)
- Filmproduktion , Spezialeffekt , Computeranimation (1)
- Finanztechnologie (1)
- Finnland (1)
- Firmware (1)
- Flammenspektroskopie (1)
- Fledermäuse (1)
- FlexRay (1)
- Fließgewässer (1)
- Flugbahnverfolgung (1)
- Fluoreszenz-Resonanz-Energie-Transfer (1)
- Fluoreszenzmarkierung (1)
- Fluoreszenzmikroskopie (1)
- Fluoreszenzproteine (1)
- Fluoreszenzspektroskopie (1)
- Flüssigkeit (1)
- Flüssigkristall , Physikalische Chemie , Phasenschieber (1)
- Formula Student Germany (1)
- Forschung (1)
- Fortpflanzung (1)
- Fotografie (1)
- Frame <Journalismus> (1)
- Francisella tularensis , Genetische Variabilität (1)
- Frequenz (1)
- Front-End <Software> , World Wide Web , React <Framework, Informatik> (1)
- Frostresistenz (1)
- Funknetz (1)
- Funkübertragung (1)
- Fälschung (1)
- GPS , Koordinatenmessgerät (1)
- GSM-Standard (1)
- Gamification , Gesundheitsverhalten (1)
- Gamification , Verhaltensmodifikation (1)
- Gastrointestinale Krankheit , Pathophysiologie (1)
- Gebäude (1)
- Gefahrenabwehr (1)
- Gefühl (1)
- Gegensatz (1)
- Gelatine (1)
- Geldwäsche (1)
- Gelände (1)
- Generative Adversarial Network (1)
- Genetik (1)
- Genexpression (1)
- Genom (1)
- Gentechnologie (1)
- Gerichtliche Zahnmedizin (1)
- Gesellschaft (1)
- Gesundheitsinformationssystem (1)
- Gesundheitswesen (1)
- Getreide (1)
- Gewalttätigkeit (1)
- Gewöhnung (1)
- Glucosinolate , Kreuzblütler , Proteine , Hydrolysat (1)
- Golderz (1)
- Governance (1)
- Graphische Benutzeroberfläche (1)
- Grassilage (1)
- Grid Computing (1)
- Großfamilie (1)
- Gyrasehemmer (1)
- Haaranalyse (1)
- Halbleiter (1)
- Handy (1)
- Hardware (1)
- Hash-Algorithmus (1)
- Hauptspeicher (1)
- Hausinternes Netz (1)
- Hautleiste (1)
- Heros (1)
- Herpes-simplex-Virus (1)
- Herzmuskelzelle , Peroxisomen-Proliferator-aktivierter Rezeptor (1)
- Hochschulbildung (1)
- Hochschuldidaktik (1)
- Hochschule Mittweida (1)
- Hochschule Mittweida <Mittweida> (1)
- Hochschulunterricht (1)
- Holografie (1)
- Honeypot (1)
- Honigproduktion (1)
- Horrorfilm (1)
- Hospitalismus <Hygiene> (1)
- Humanitäre Hilfe (1)
- Hydroxyprolin (1)
- Hyperkalzämie (1)
- Hyperthermie (1)
- Hyponatriämie (1)
- Hämatoskopie (1)
- Häusliche Gewalt (1)
- Hüftgelenk (1)
- IP (1)
- Imidacloprid , Toxizität , Regenwürmer <Familie> (1)
- Immobilisierung (1)
- Immunologische Diagnostik (1)
- Immuntherapie (1)
- Implementation (1)
- Industrie 4.0 (1)
- Influenza-A-Virus (1)
- Information Extraction (1)
- Informationsfilterung , Kollaborative Filterung (1)
- Informationsmanagement , Servicegrad , IT infrastructure library (1)
- Informationssystem , Dokumentation (1)
- Informationstechnik (1)
- Informationsvermittlung (1)
- Input-Output-Analyse (1)
- Insektizid (1)
- Instand Messaging (1)
- Integration (1)
- Integrierte Schaltung (1)
- Interaktion (1)
- Interaktive Medien (1)
- Interaktives Video (1)
- Interdisziplinarität (1)
- Ionenselektive Elektrode (1)
- Ischämischer cerebraler Anfall (1)
- JPEG (1)
- JavaScript , Framework <Informatik> (1)
- Kalibrieren <Messtechnik> (1)
- Kalium (1)
- Kamera , Videospiel , Softwareentwicklung (1)
- Kampfszene (1)
- Kapitalanlagebetrug (1)
- Kapitaltransfer (1)
- Katalytische Reduktion , Visualisierung , c (1)
- Kennzeichen (1)
- Keratine , Extraktion , Hydrolysat (1)
- Kernel <Informatik> (1)
- Kind (1)
- Klein- und Mittelbetrieb , Prozessmanagement , Enterprise-Resource-Planning (1)
- Klimaänderung (1)
- Kläranlage , Schwefelwasserstoff , Aktivkohle , Abluftreinigung (1)
- Klärschlamm (1)
- Kollagenasen , Fibroblast (1)
- Kommunikation (1)
- Kontrollsystem (1)
- Kontrolltheorie , Stabilität , Steuerungstheorie (1)
- Kopienzahlvariation , Genamplifikation , Polymerase-Kettenreaktion (1)
- Korrosion (1)
- Kraftfahrzeugbau (1)
- Kraftfahrzeugindustrie (1)
- Krankenhaus (1)
- Kreatives Denken (1)
- Kriminalanthropologie (1)
- Kriminalbiologie (1)
- Kriminalitätstheorie (1)
- Kriminalprognose (1)
- Kriminelle Vereinigung (1)
- Krisenmanagement (1)
- Kryptoanalyse (1)
- Kugelspalt (1)
- Kulturpflanzen (1)
- Kundenbindung (1)
- Kunststoff (1)
- LINUX , Systemprogrammierung , Malware (1)
- Laboratorium (1)
- Landschaft (1)
- Landwirtschaft (1)
- Laserscanner (1)
- Lastkraftwagen (1)
- Laständerung (1)
- Lebensmittelhygiene (1)
- Lebensmittelmikrobiologie (1)
- Lebensmitteltechnologie (1)
- Lebensmittelverarbeitung (1)
- Lebensraum (1)
- Leder , Schimmelpilze , Test (1)
- Legasthenie (1)
- Legionella , Kühlwasser , Abwasser , Nachweis (1)
- Lehrveranstaltung (1)
- Leichte Sprache (1)
- Leitsystem (1)
- Leptospermum scoparium (1)
- Lernen (1)
- Levofloxacin (1)
- Linearer Code (1)
- Linux (1)
- Lipide (1)
- Lippe (1)
- Lithium (1)
- Logdatei (1)
- Long Term Evolution (1)
- Lucilia sericata (1)
- Lungenentzündung (1)
- Lungenkrankheit (1)
- Lymphom (1)
- Lügendetektor (1)
- MATLAB (1)
- Malaria (1)
- Managementinformationssystem (1)
- Manisch-depressive Krankheit (1)
- Marketing (1)
- Marketingstrategie (1)
- Massenmedien (1)
- Mathematisches Modell (1)
- Medienkonsum , Unterricht , Medienpädagogik (1)
- Medienkultur (1)
- Medienpolitik (1)
- Medizinische Dokumentation (1)
- Medizinische Mikrobiologie (1)
- Medizinprodukt (1)
- Medizintechnik (1)
- Mehragentensystem (1)
- Mehrkriterielle Optimierung (1)
- Mehrprozessorsystem (1)
- Meinungsbildung (1)
- Melanom (1)
- Membran (1)
- Mensch (1)
- Mensch-Maschine-Kommunikation (1)
- Messenger-RNS (1)
- Messgerät (1)
- Messung (1)
- Metadaten (1)
- Metallion (1)
- Metastase (1)
- Metrik <Mathematik> (1)
- Mikrobieller Abbau (1)
- Mikrofluidik (1)
- Mikrofotometrie (1)
- Mikroservice (1)
- Mikroservice , Heterogenes Rechnernetz (1)
- Mikroservice , Serviceorientierte Architektur (1)
- Mikroskopie (1)
- Milchleistungsprüfung (1)
- Milchproduktion (1)
- Milchverarbeitung (1)
- Mixed Reality (1)
- Mobile Telekommunikation (1)
- Mobiles Endgerät , Android <Systemplattform> , Computervirus (1)
- Mobiles Endgerät , Smartphone , Android <Systemplattform> , App <Programm> (1)
- Molekulargenetik (1)
- Molkerei (1)
- Moralpsychologie (1)
- Morphometrie (1)
- Motion Capturing (1)
- Motivation (1)
- Multimedia (1)
- Multiplexsystem (1)
- Mundschleimhaut (1)
- Musik (1)
- Musikmarkt (1)
- Muskelzelle (1)
- Myelodysplastisches Syndrom (1)
- NIR-Spektroskopie (1)
- Nachweis (1)
- Nahbereichsfotogrammetrie (1)
- Nanobiotechnologie (1)
- Nanostruktur (1)
- Nanotechnologie (1)
- Naturstein (1)
- Neophyten <Botanik> , Wasserpflanzen , Pflanzeninhaltsstoff (1)
- Netflix Inc. (1)
- Netzgerät (1)
- Netzwerkverwaltung , Monitorüberwachung (1)
- Neue Medien (1)
- Nichtionisierende Strahlung , Plausibilitätsprüfung (1)
- Nichtverbale Kommunikation (1)
- Normung (1)
- Notsignal (1)
- Nucleocapsid (1)
- Numerische Mathematik (1)
- Nutzen (1)
- Nutzpflanzen , BTX-Aromaten , Umweltbelastung (1)
- Nutzwertanalyse (1)
- Nährstoffaufnahme (1)
- ORACLE WebServer , LINUX , Server , Update (1)
- Oberflächenbehandlung , Biomaterial , Phosphate (1)
- Oberflächengewässer (1)
- Oberkiefer (1)
- Objektverwaltung (1)
- On-Board-Diagnose (1)
- Online-Spiel (1)
- Ontologie (1)
- Open Source (1)
- OpenStack (1)
- Opferschutz (1)
- Optimierung (1)
- Optische Spektroskopie (1)
- Optische Täuschung (1)
- Optische Zeichenerkennung (1)
- Optischer Richtfunk (1)
- Orakel <Informatik> (1)
- Oxidation (1)
- PDF <Dateiformat> (1)
- PGP (1)
- Pandemie (1)
- Papierindustrie (1)
- Parken (1)
- Pathogene Bakterien (1)
- Pathogene Bakterien , Medizinische Mikrobiologie , Minimale Hemmkonzentration (1)
- Pathogener Mikroorganismus , Scheidenentzündung , Abstrich <Medizin> , Labormedizin (1)
- Pathogenese (1)
- Patient (1)
- Peer-to-Peer-Netz (1)
- Perfluorverbindungen (1)
- Periphere Stammzellentransplantation (1)
- Pestizid (1)
- Pflanzenschutzmittel (1)
- Phantombild (1)
- Phosphor (1)
- Photodiode , Optoelektronisches Bauelement (1)
- Photorezeptor , Netzhautdegeneration (1)
- Photosynthese (1)
- Phylogenetik , Schlauchpilze , Saccharomycetaceae (1)
- Phänotyp (1)
- Pipette (1)
- Planung (1)
- Politische Kommunikation (1)
- Polizei (1)
- Polyfluorverbindungen (1)
- Polymerase-Kettenreaktion (1)
- Polymere (1)
- Polynom (1)
- Polynom , Graphentheorie (1)
- Polysaccharide (1)
- Praktikum (1)
- Priming (1)
- Privatphäre (1)
- Produkt (1)
- Produktion (1)
- Produktionsprozess (1)
- Programm (1)
- Programmiersprache (1)
- Projektplanung (1)
- Promotor <Genetik> , Rot fluoreszierendes Protein , Acetogene Bakterien (1)
- Prostatakrebs (1)
- Proteasen (1)
- Proteinbiosynthese (1)
- Proteinbiosynthese , Wirkstoff , Nervennetz (1)
- Prozesskette (1)
- Prozessmanagement (1)
- Prozessvisualisierung (1)
- Prunus (1)
- Prävention (1)
- Pupillenreaktion (1)
- Puppet <Software> (1)
- Qualitätsmanagement (1)
- RS-Virus (1)
- Raspberry Pi , Leistungsmessung , Energieverbrauch (1)
- Rauigkeit (1)
- Raumdaten (1)
- Rechnungswesen , Elektronische Buchführung , Softwaresystem (1)
- Rechtsmedizin , Schädel (1)
- Rechtsstellung (1)
- Regenerative Medizin (1)
- Regularisierung (1)
- Reinigung (1)
- Rekombinantes Protein (1)
- Rendering (1)
- Resozialisierung (1)
- Rezeptor (1)
- Rhamnolipide (1)
- Rind (1)
- Risikoanalyse (1)
- Rot-Grün-Blindheit (1)
- Router (1)
- Routing (1)
- Rust <Programmiersprache> (1)
- Rüstzeit (1)
- Satellitenfunk (1)
- Satellitentechnik (1)
- Scanner (1)
- Scanning (1)
- Schadstoffbelastung (1)
- Schaltschrank (1)
- Schimmelpilze , Leder , Oberflächenschaden (1)
- Schlaganfall (1)
- Schlagsahne (1)
- Schlammbehandlung (1)
- Schriftzeichenerkennung (1)
- Schule (1)
- Schussverletzung (1)
- Schutzmaßnahme (1)
- Schwierigkeitsgrad (1)
- Schädel (1)
- Sehne (1)
- Sehnenverletzung (1)
- Selbstständiger (1)
- Selbstwirksamkeit (1)
- Semantic Web (1)
- Semantisches Netz (1)
- Sensor (1)
- Serienfertigung (1)
- Server , LINUX , Patch <Software> (1)
- Sicherheitsanalyse (1)
- Sicherheitstechnik (1)
- Single-page-Webanwendung (1)
- Skelett (1)
- Skelettmuskel (1)
- Smart contract (1)
- Smartwatch (1)
- Smiley (1)
- Smoothed Particle Hydrodynamics (1)
- Social Media , Datenanalyse (1)
- Softwareentwicklung , Eingebettetes System (1)
- Softwareschnittstelle (1)
- Sound (1)
- Soundverarbeitung (1)
- Soziale Software (1)
- Sozialtechnologie (1)
- Spaltströmung (1)
- Speicher <Informatik> (1)
- Spektralfotometrie (1)
- Sperma (1)
- Spieleentwicklung (1)
- Spieltherapie (1)
- Sprache (1)
- Sprachgebrauch (1)
- Sprachverarbeitung (1)
- Spürhund , Person , Suche , Geruchswahrnehmung , Kriminalistik (1)
- Stabilität (1)
- Statistisches Modell (1)
- Steganographie (1)
- Sterbehilfe (1)
- Stereoskopie (1)
- Sterolesterase , Rekombinantes Protein , Pichia pastoris , Gentechnologie (1)
- Steuerhinterziehung (1)
- Steuerungstechnik (1)
- Stickstoff (1)
- Stickstoffstoffwechsel (1)
- Stickstoffverbindungen (1)
- Stochastisches Modell (1)
- Stoffwechsel (1)
- Strafbarkeit (1)
- Strafverfahren (1)
- Strafverfahrensrecht (1)
- Strafverfolgung (1)
- Strafverfolgungsmaßnahme (1)
- Streaming <Kommunikationstechnik> (1)
- Stress (1)
- Studium (1)
- Studium , Neue Medien (1)
- Störfaktor (1)
- Suberin , Cumarin , Biosynthese (1)
- Sulfatreduzierer (1)
- Superabsorber (1)
- Supply Chain Management (1)
- Systemmedizin (1)
- Systemplattform (1)
- Systemprogrammierung (1)
- T-Lymphozyt (1)
- TCP/IP , Firewall (1)
- Taphonomie (1)
- Tatort , Tatrekonstruktion , Computerforensik (1)
- Tatortbesichtigung (1)
- Taufliege (1)
- Taxonomie , Videospiel (1)
- Technische Unterlage (1)
- Tee (1)
- Teilchen (1)
- Telekommunikationsüberwachung (1)
- Textanalyse (1)
- Textur-Mapping (1)
- Tierarzneimittel (1)
- Tierproduktion (1)
- Token (1)
- Transkriptionsfaktor (1)
- Transplantation (1)
- Treiber <Programm> (1)
- Trick (1)
- Trinkwasser (1)
- Trinkwasser , Clostridium perfringens (1)
- Trinkwasseraufbereitung (1)
- Trinkwasserversorgung (1)
- Trolley-Problem (1)
- Tumorzelle (1)
- Tutte-Polynom (1)
- Twitter <Softwareplattform> (1)
- Täter (1)
- UML , Gateway (1)
- Ultrakurzer Lichtimpuls , Laserimpuls (1)
- Umweltbelastung (1)
- Umwelttoxikologie , Schadstoff , Stressor (1)
- Unbemanntes Flugzeug (1)
- Unterkiefer (1)
- Vector Association (1)
- Verbrennungsmotor (1)
- Verdaulichkeit (1)
- Verhältnismäßigkeitsgrundsatz (1)
- Verkehr (1)
- Verkehrsüberwachung (1)
- Vernehmung (1)
- Vernetzung (1)
- Verpackung (1)
- Vertonung (1)
- Verunreinigung (1)
- Verwahrung (1)
- Verwitterung (1)
- Vesikel (1)
- Viber (1)
- Video on demand (1)
- Videoaufzeichnung (1)
- Videoaufzeichnung , Audiotechnik , Softwareentwicklung (1)
- Videospiel , Musik (1)
- Videospiel , Softwareentwicklung (1)
- Videospiel , Virtuelle Realität , Visuelle Wahrnehmung (1)
- Videospielemarkt , Computerspielindustrie , Japan , Kultur , Westliche Welt , Einfluss (1)
- Virusinfektion (1)
- Visualisierung , Dreidimensionale Computergrafik (1)
- Vitamin-D-Gruppe (1)
- Vorschulkind (1)
- WINDOWS <Programm> (1)
- Wahrscheinlichkeitsrechnung (1)
- Wasserprobe (1)
- Wasserstoffionenkonzentration (1)
- Wasserverschmutzung (1)
- Wasserverschmutzung , Ethinylestradiol , Bioassay (1)
- Web-Applikation (1)
- Web-Seite (1)
- Webdesign (1)
- Website , Gestaltung (1)
- Wellenfunktion (1)
- Wiederkäuer (1)
- Wildbirne (1)
- Wildtiere (1)
- Windows 7 (1)
- Windows XP (1)
- Wirkung (1)
- WordPress (1)
- XML (1)
- Zeichnung (1)
- Zeiterfassung (1)
- Zeitreihe , Vektor , Hankel-Matrix (1)
- Zeitreihenanalyse (1)
- Zellkultur , Diagnostik , Lymphatische Leukämie (1)
- Zelltod (1)
- Zellulares neuronales Netz (1)
- Zephyr <Programm> (1)
- Zertifizierung (1)
- Zigbee-Technologie (1)
- Zufallsgraph (1)
- dreidimensionale Rekonstruktion (1)
- visualisierung (1)
- Überwachtes Lernen (1)
Institute
- Angewandte Computer‐ und Biowissenschaften (939) (remove)
Diese Bachelorarbeit befasst sich mit der Untersuchung zweier eigens hierfür erwählter Fitness-Apps: ‚Fitnesstrainer FitProSport‘ und ‚Fitness Challenge‘.
Ziel ist die Darstellung des gesundheitlichen wie zweckmäßigen Nutzens von Mobile-Apps und ihrer Benutzbarkeit, um Rückschlüsse auf deren Eignung zur Unterstützung des Aufbaus oder der Steigerung körperlicher Leistungsfähigkeit zu ziehen. Infolge der literarischen Quellanalyse sowie unter Verwendung von themenbezogenen Studien und Statistiken, erfolgt die Darstellung relevanter, gesammelter Informationen. Einhergehend mit der Betrachtung sowohl von Hintergründen und Entwicklungen der Fitness als ‚modernem Sport‘ als auch von diesbezüglichen mobilen Applikationen unter besonderer Berücksichtigung der ausgewählten Apps werden die Gebiete der Softwareergonomie (Nutzen) und -technik (Benutzbarkeit) näher erläutert. Für die Durchführung eines manuellen, dynamischen Selbsttests des Verfassers gilt es, allgemeine, medizinische, softwareergonomische und -technische Kriterien zur Prüfung zu erarbeiten und entsprechend aufzubereiten. Im Zuge dessen werden Testdokumente zur Begleitung des Testprozesses sowie Fragebögen zu aus den genannten Themengebieten erarbeiteten Prüfkriterien erstellt. Neben dieser Benutzerbefragung dienen auch Diagrammdarstellungen der abschließenden Analyse und Ergebnisbewertung unter Beantwortung der gestellten Forschungsfrage. Ein Ausblick gibt einen Überblick über Relevanz und mögliche Chancen der aufgeschlüsselten Thematik der gerätegestützten körperlichen Betätigung.
Die vorliegende Bachelorarbeit befasst sich mit der Thematik zur Überprüfung der möglichen Schädigung von Lederhalbfabrikaten (Wet-Blue) durch verschiedene Schimmelpilze, welche auf Leder vorgekommen sind bzw. bereits von Leder isoliert werden konnten. Dafür sollte das Wachstum der Schimmelpilze auf dem Halbfabrikat mit Hilfe von Kultivierungsmethoden aus verschiedenen Bewuchstests gezielt gefördert werden. Anschließend wurden die Prüflinge auf eine Materialschädigung untersucht und auf mögliche Nährstoffquellen für das Wachstum der Schimmelpilze zurückgeschlossen
In dieser Arbeit werden drei Modelle entworfen und verglichen, mit welchen Meinungsführer in einem Twitter-Netzwerk erkannt werden können. Dazu wird ein Datensatz mit 600.000 Tweets von 100.000 Twitter-Nutzern von April bis Juni 2021 ausgewertet. Zur Bestimmung des Einflusses eines Nutzers werden sowohl topologische Informationen des Netzwerkes als auch Reaktionen auf einzelne Tweets einbezogen. Anschließend werden Korrelationen zwischen dem Grad der Meinungsführerschaft und der Toxizität der Tweets untersucht. Dafür wurde eine Recherche zu Software zur Analyse von Graphen durchgeführt und Neo4j als passendes Werkzeug ausgewählt. Es konnte gezeigt werden, dass der ArticleRank als Zentralitätsalgorithmus geeignet ist, Meinungsführer zu erkennen. Meinungsführer sind weniger toxisch als andere Nutzer, allerdings ist dies nur ein schwacher Indikator. Durch die Modellierung der Häufigkeit, wie oft Nutzer interagieren, können verschiedene Fragen beantwortet werden. Durch diesen Algorithmus können Konzepte der Kommunikationswissenschaft in Bezug auf Meinungsführer in sozialen Netzwerken nachgeweisen werden.
In dieser Arbeit wird die Auswirkung der landwirtschaftlichen Nutzung im Nahbereich der Gewässer auf den Blattabbau in kleinen Fließgewässern der Agrarlandschaft untersucht. Hierzu wurde ein Freilandversuch an zwölf Messstellen in Deutschland durchgeführt, um den Blattabbau durch Makroinvertebraten und Mikroorganismen zu bestimmen. Die Abbauraten wurden auf einen Zusammenhang mit der landwirtschaftlichen Nutzung des Nahbereichs der Gewässer, der Ausprägung von allgemeinen abiotischen Umweltstressoren und der Dichte und Artzusammensetzung der Zerkleinerer überprüft.
Die vorliegende Arbeit betrachtet den Stellenwert von Realismus in Animationsfilmen. Unter Berücksichtigung der gestalterischen Darstellung der Figuren, der Handlung und der visuellen Gestaltung des Animationsfilmes, wird bewertet, wie wichtig die einzelnen Faktoren eines Filmes im Bezug auf ihre realistische Wirkung auf den Zuschauer sind.
Mittels GPM3 können komplexe DNA- Mischspuren analysiert und STR- Profile ausgewertet werden. Zudem können durch Berechnungen die Genotypen, die in einer Mischung vorliegen, voneinander differenziert werden. Vor allem komplexe Mischspuren stellen einen Schwerpunkt bei der Spurenuntersuchung dar. Eine Anwendung von GPM3 ist die komponentenweise Dekonvolution von DNA- Mischspuren, bei der die Profile der beteiligten Personen aufgetrennt und die Wichtungen aller möglichen Genotypen ausgezählt werden. Dabei werden die Genotypkonstellationen (GTK) basierend auf den Peakhöhen, der Degradationsstärke und stochastischen Effekten bei Einsetzten von geringen DNA- Mengen modelliert. Der von der Firma Qualitype vorgegebene Grenzwert für die Wichtung, ab welcher mit einer hohen Wahrscheinlichkeit angenommen werden kann, dass es sich bei dieser GTK um den richtigen Genotyp der beteiligten Person handelt, liegt bei 90 %. Folglich werden Untersuchungen im Rahmen dieser Arbeit zu diesem Grenzwert anhand von verschiedenen 2- Personen- Mischungen in unterschiedlichen Konzentrationen mittels der Dekonvolution mit dem vollständig- kontinuierlichen Modell durchgeführt.
In der Arbeit werden dazu die jeweiligen Abstände der Wichtungen in Prozent der GTK der beteiligten Personen jeder Mischung berechnet und überprüft, ob die am höchsten gewichteten Genotypen in GPM3 den richtigen Allelkombinationen der jeweiligen Person entsprechen. Hierbei wird der Abstand der Konstellation mit der größten Wichtung zur „wahren“ Konstellation berechnet. Aus den Mittelwerten der prozentualen Abstände soll anschließend der Ähnlichkeitswert der Wichtung, ab welchem noch mit sehr hoher Wahrscheinlichkeit die richtige GTK ausgegeben wird, ermittelt werden.
Das Ziel der Bachelorarbeit ist es, die Möglichkeiten und Grenzen der Dekonvolution von Mischspuren mit der GPM3- Software bei verschiedenen Analysebedingungen zu bewerten und einen Auswerteparameter in Abhängigkeit von den Abständen der Wichtungen in Prozent und den Konzentrationen der einzelnen Mischungen zu validieren. Zudem soll die Nachweisgrenze der Analysemethode untersucht werden, um eine Aussage über die Minimalmenge an einzusetzender DNA treffen zu können
Für die switchSENSE®-Technologie der Firma Dynamic Biosensors sollen DNAOrigami-Konstrukte gefaltet werden. Da der einzelsträngige M13mp18-Virus-DNAStrang zu lang für die benötigten DNA-Origami-Strukturen ist, sollen aus diesem kürzere Gerüststränge generiert werden. Dafür gibt es zwei Strategien: den DNAStrang durch passende Restriktionsenzyme spalten zu lassen oder einen einzelsträngigen DNA-Strang durch eine asymmetrische PCR amplifizieren zu lassen. Beide Strategien wurden ausgetestet und auf ihre Wirtschaftlichkeit hin verglichen.
Die Bachelorarbeit befasst sich mit dem Zeitmanagement von sieben ausgewählten CITO-Parametern. Besonders liegt dabei der Schwerpunkt auf der Analyse der Zeiten der eiligen CITO-Parameter, welche anhand ausgewählter statistischer Methoden erfolgt. Dazu gehört die Auswertung der Ankunftszeiten der Blutproben, der Turn-Around-Zeiten dieser Proben im Labor und der wöchentlichen Mediane der Turn-Around-Zeiten, sowohl in Form eines Diagramms, als auch mithilfe eines Boxplots, mit dem die Durchlaufzeiten innerhalb eines Monats noch besser visualisiert werden können. Um störende Faktoren innerhalb des Labors zu erkennen, wird der Laborablauf einer Probe analysiert und die Aufenthaltsdauer ausgewählter Stichproben an den verschiedenen Laborarbeitsplätzen verfolgt. Darüber hinaus werden die CITO-Parameter mit den täglich längsten Turn-Around-Zeiten genauer überprüft, wodurch sich ebenso Gründe für verlängerte Zeiten finden lassen. Anhand der statistischen Auswertung wird es möglich, Optimierungsvorschläge zu finden, die besonders den Laborablauf der eiligen Blutproben in Zukunft verbessern können.
Workload Optimization Techniques for Password
Guessing Algorithms on Distributed Computing Platforms
(2019)
The following thesis covers several ways to optimize distributed computing platforms for cryptanalytic purposes. After an introduction on password storage, password guessing attacks and distributed computing in general, a set of inital benchmark results for a variety of different devices will be analyzed. The shown results are mainly based on utilization of the open source password recovery tool Hashcat. The second part of this work shows an algorithmic implementation for information retrieval and workload generation. This thesis can be used for the conception of a distributed computing system, inventory analysis of available hardware devices, runtime and cost estimations for specific jobs and finally strategic workload distribution.
Diese Bachelorarbeit zielt darauf ab, die Vor- und Nachteile des Game Asset Creation Workflows und des Textureless Workflows, für mobile Augmented Reality Geräte anhand der Microsoft HoloLens zu ermitteln. Hierfür wurden beide Workflows in Sachen Performance und Erscheinungsbild mithilfe einer Testreihe verglichen. Es wurden für jeden Workflow jeweils drei Modelle mit unterschiedlichen Parametern erstellt. In der Testreihe wurden daraufhin verschieden Texturen separat getestet, um genau sagen zu können, welche Texturen für Performanceeinbrüche sorgen. Das Ergebnis der Testreihe bestätigt die vorher getroffene These, dass der Textureless Workflow über die bessere Performance verfügt. Diese Bachelorarbeit ist sowohl für Modellierer von 3D Modellen für mobile Augmented Reality Geräte interessant, als auch für HoloLens Entwickler.
Die folgende Arbeit bezieht sich auf die Werke von Hermann Helbig und Dewald und Freiling. Es soll die Verbindung zwischen einem Objekt, definiert nach Helbig, und einer Spur im kriminalistischen Sinne aufzeigen. Es wird zudem eine neue Repräsentation des Weges einer Spur von dessen Sicherung hin zu der Assoziation mit dem Objekt, das die Spur verursacht hat, entwickelt. Ein Objekt als semantische Entität mit dessen Eigenschaften als Charakterisierung soll in einen Zusammenhang mit kriminalistischen Untersuchungen, wie Klassifizierung und Individualisierung, durch eine Ontologie gebracht werden. Beginnend mit physischen Spuren stellt sich die Frage, ob sich die Darstellung auch auf digitale Spuren übertragen lässt. Eine neue Grafik, die sowohl für physische als auch für digitale Suren funktioniert, soll erzielen werden.
Wirksamkeitstestung des Helikase-Primase Inhibitors PXI26250 gegen das Herpes simplex Virus Typ 1
(2018)
Die vorliegende Arbeit thematisiert die Wirkstofftestung des neuartigen Helikase-Primase Inhibitors PXI26250 gegen eine HSV-1 Infektion in einer in vitro Untersuchung der Zelllinie A549-Luc. Dabei werden insbesondere die Einflüsse verschiedener Konzentrationen des Medikaments und die zeitlichen Auswirkungen unterschiedlicher Inkubationszeiten auf die Infektionsintensität analysiert. Neben einer Antikörpermarkierung infizierter Zellen mittels Immunocytochemie werden für die Quantifizierung der Ergebnisse weiterhin ein Cytotoxizitäts - sowie Zellviabilitäts Assay hinzugezogen.
Diese Arbeit befasst sich mit der Bestimmung der minimalen Hemmkonzentration (MHK) im Titerplattenformat für Antibiotika und/oder Effluxpumpen-Inhibitoren anhand verschiedener klinischer Isolate von E. faecalis, E. faecum und S. aureus und dem Vergleich mit bereits vorhandener Literatur. Aufbauend auf den ermittelten MHK-Werten wurden dann Bestimmungen der minimalen Biofilm-inhibierenden Konzentration am konfokalen Laser-Scanning-Mikroskop durchgeführt. Die Klonalität der verwendeten Isolate wurde mittels Random Amplified Polymorphic DNA-PCR und den daraus erstellten Dendrogrammen geprüft.
Das Programm WhatsAppOn ist ein in Python geschriebenes, kommandozeilenbasiertes Programm, welches das Tracken des WhatsApp-Online-Status einer Person auf verschiedenen Betriebssystemen ermöglicht. Das Programm wurde auf den Betriebssystemen Windows und Linux getestet. Die Testphase umfasst eine Dauer von neun Wochen. Nach der Testphase wurden die Daten mittels eines Programmes weiterverarbeitet. Die Daten konnten daraufhin ausgewertet werden. Bei der Auswertung stellte sich heraus, dass Schlafphasen der Testperson festgestellt werden können. Arbeitszeiten der Testperson ließen sich nur teilweise ermitteln.
In dieser Arbeit sollen die Vorgehensweise und einige Ansätze der KI-basierten Emotionserkennung vorgestellt werden. Dabei wird auch auf die Grundlagen der allgemeinen Emotionserkennung eingegangen und hinterfragt, ob die Nutzung einer KI mit diesen Fähigkeiten sinnvoll für Vernehmungssituationen ist.
Die Arbeit beschäftigt sich mit der Weiterentwicklung eines LIMS für die AUD-GmbH in Chemnitz. Als Orientierung dient eine vorangegangene Bachelorarbeit („Entwicklung eines Plans für ein LIMS auf Grundlage des Baukastensystems Nuclos“ von Florian Quellmalz), welche sich mit einem ähnlichen Thema beschäftigt hat. Mithilfe des Open Source Programms „Nuclos“ soll die Grundlage für ein funktionierendes LIMS geschaffen werden. Hierfür werden Informationen über Datenbankerstellung, die internen Laborprozesse und relevante Arbeitsschritte gesammelt, verarbeitet und anhand dessen in das LIMS einbezogen.
Wirksame Sicherheitsmaßnahmen zu entwickeln und auch zu implementieren, bedeutet im Umkehrschluss, dass zuerst einmal die zugrundeliegenden Gefahren, Schwachstellen und Sicherheitslücken bekannt sein und verstanden werden müssen. Das beste System hat wenig Nutzen, wenn der Mensch, der es bedient, es nicht zu nutzen weiß. Aus diesem Grund soll mit der vorliegenden Arbeit ein grundlegendes Verständnis zu möglichen Angriffen auf das Session Management beziehungsweise in diesem Fall auch die Verschlüsselung gelegt werden. Im Anschluss daran werden mögliche Schutzmaßnahmen dargelegt, welche als eine Art Leitfaden dienen sollen.
In dieser Arbeit wird der Einsatz des Wave Function Collapse Algorithmus untersucht. Dazu werden Anforderungen an das Leveldesign für das Videospiel Counter Strike: Global Offensive als Vorlage genutzt. Der Algorithmus wird in der Unity Engine implementiert und evaluiert. Es werden drei Versuchsreihen durchgeführt. Jede Versuchsreihe nutzt andere Einstellungen für die Levelgenerierung und analysiert welche Anforderungen erfüllt werden können. Die Ergebnisse werden verglichen und es werden Rückschlüsse auf die Anwendbarkeit des Algorithmus für die Erstellung von Multiplayer Level mit Ähnlichkeit zu Counter Strike: Global Offensive gezogen.
The following is a description and outline of the work done at the Cornell Lab of Ornithology developing Nation Feathers VR, a virtual reality game for learning about bird calls and songs. The goal was to develop a game which is intuitive, educational and entertaining. Furthermore, the software needed to be structured in a way that allows for feasible future expansion. This required careful data saving and retrieval. The game gives the player an opportunity to learn and apply that knowledge, all while maintaining a shorter runtime in order to reduce the total time spent in the virtual world. This is meant to prevent any discomfort to the player that may result from extended use of the VR headset.
VQ-VAE is a successful generative model which can perform lossy compression. It combines deep learning with vector quantization to achieve a discrete compressed representation of the data. We explore using different vector quantization techniques with VQ-VAE, mainly neural gas and fuzzy c-means. Moreover, VQ-VAE consists of a non-differentiable discrete mapping which we will explore and propose changes to the original VQ-VAE loss to fit the alternative vector quantization techniques.
In regelmäßigen Abständen werden bei Milchkühen in Deutschland Daten über die Zusammensetzung der Milch erhoben, um eine gleichbleibende Qualität sicherstellen zu können. Gleichzeitig dienen die Milchinhaltsstoffe als erste Indikatoren für eine Veränderung des Stoffwechsels der Kuh und ein damit einhergehend erhöhtes Erkrankungsrisiko. Aus diesem Grund wird in dieser Arbeit untersucht, ob es möglich ist, Vorhersagen über Erkrankungen bei Milchkühen anhand dieser Milchleistungsprüfungsdaten zu treffen. Dafür werden maschinelle Lernverfahren angewendet, im Speziellen Multi-Label- und binäre Klassifikationsverfahren. Die genutzten Klassifikatoren umfassen Multi-Layer Perzeptrone, Naive Bayes-Klassifikatoren sowie Support Vector Machines mit verschiedenen Kernels. Die Vorhersagen werden mit Konfusionsmatrizen und den dazugehörigen Evaluationsmaßen ausgewertet und verglichen.
G-Protein-gekoppelte Rezeptoren (GPCR) sind wichtige Proteinkomplexe für unzählige physiologische Funktionen und dienen als Startpunkt für moderne pharmazeutische Eingriffe. Trotz ihrer Fülle, bemerkenswerten Größe und Molekularstruktur, welche Zell- und Matrixkontakte in einer Vielzahl von Organsystemen ermöglicht, sind GPCR die am wenigsten verstandene Rezeptorklasse. Die Grundlagenforschung an der räumlichen GPCR-Struktur dient dem besseren Verständnis ihres strukturbasierten Wirkstoffdesigns, wodurch pharmazeutisch interessante Proteine mit Medikamenten spezifisch interagieren können. Dafür werden GPCR in „Human Embryonic Kidney“-Zellen (HEK293S-Zellen) exprimiert und anschließend mit der röntgenkristallografischen Analyse untersucht.
Die Bachelorarbeit untersucht, welche Auswirkungen die semantische Bildsegmentierung als Vorverarbeitungsschritt für Eingabebilder auf die Klassifikationsfähigkeit eines Convolutional Neural Networks (CNN) hat. Zu diesem Zweck werden Experimente mit verschiedenen Visualisierungstechniken gemacht, die geeignet sind, relevante Aspekte des Datenflusses im CNN während des Klassifikationsprozesses (wie z.B. den für die Klassifikationsentscheidung relevantesten Bildausschnitt) intuitiv zu veranschaulichen. Hierzu sollen verschiedene bereits existierende Ansätze wie GradCAM, Taylor Decomposition, Activation Maximization auf ihre Anwendbarkeit anhand von synthetischen Bilddaten systematisch untersucht werden. Hierzu werden
Daten- und Kontrollschnittstellen zu den anvisierten CNN-Verfahren umgesetzt und Vergleichsexperimente mit unbehandelten und auf verschiedene Weise vorsegmentierten Bilddaten konzipiert und durchgeführt. Die Arbeit soll ein intuitives Verständnis bzgl. der Fragestellung fördern, welchen Effekt eine vorherige Bildsegmentierung auf das Klassifikationsresultat und die CNN-interne Repräsentation von bildbasierten Daten hat
Die Salzgitter Flachstahl GmbH (SZFG) ist das größte Tochterunternehmen der Salzgitter AG und stellt unterschiedliche Flachstahlprodukte her. Sie beinhaltet
verschiedenen Produktionsbereiche und Produktionsanlagen, wie bspw. das Hochofenwerk mit der Erzvorbereitung und den Hochöfen, das Stahlwerk mit den Stranggießanlagen, das Warmbreitbandwalzwerk mit der Warmbreitbandstraße und der Schubbeize, und abschließend der Bereich Kaltflach mit der Kontibeize, der Tandemstrasse, der Glüherei und der Dressierstraße, den Verzinkungsanlagen, der Bandbeschichtung und den Coillinien.
Eine der Beizanlagen der SZFG ist die Kontibeize 2 (KB2) aus dem Bereich Kalt-flach. In der KB2 werden die Stahlbänder vom Oberflächenzunder und von Verschmutzungen befreit. Weite Teile des zu verarbeitenden Materials der SZFG durchläuft die KB2. Ihrer Verfügbarkeit wird daher eine große Bedeutung beige-messen. Die Verfügbarkeit ist das Maß für den störungsfreien Betrieb einer jeden Produktionsanlage. Sie verringert sich über die Anzahl und die jeweilige
Dauer von Störungen in Relation zu der verfahrenen Produktionszeit.
Die Diplomarbeit zielt auf eine Erhöhung der Anlagenverfügbarkeit ab, indem die Zeit nach Störungseintritt bis zum Wiederanlauf der Anlage verringert werden soll. Unter bestimmten Störbedingungen fehlen zurzeit verschiedene Materialdaten, um die Anlage bei Datenverlust sicher anzufahren. Durch eine bessere Übersicht über die gespeicherten Materialdaten im Anlagenspeicher und des folglich leichteren Abgleichs der Daten mit dem Material vor Ort, wird den Mitarbeitern helfen fehlerhafte Datensätze in der Anlagensteuerung zu erkennen und dadurch Fehler beim Anfahren der Anlage zu vermeiden.
Die vorliegende Diplomarbeit befasst sich mit der Analyse, Kontrolle und Optimierung der Videoaufzeichnung bei LinkedIn Austria. Anhand der Problemstellung wurde ein Tool (video-detective) programmiert. Daten zu sammeln und zu analysieren ist das Hauptziel des video-detective. Anhand der Analyse wird der gesamte Workflow der Videokontrolle beschleunigt und vereinfacht. Auf die Bedienbarkeit wird besonders Wert gelegt. Für eine schnelle Übersicht werden die gesammelten Daten grafisch dargestellt. Ein weiteres Ziel dieser Arbeit ist, fehlerhafte Video-Files so schnell wie möglich zu erkennen und richtige Gegenmaßnahmen einzuleiten. Die Kontrolle der Files soll möglichst im Hintergrund stattfinden und den Dozenten nicht bei den Aufzeichnungen stören.
Verwendung von „mCherry“ als Reportersystem zur Bestimmung der Stärke verschiedener Promotoren.
(2016)
In der folgenden Arbeit geht es um die Analyse der Stärke von verschiedenen Promotoren in den Mikroorganismen Escherichia coli und Acetobacterium woodii, welche mithilfe des rot fluoreszierenden Reporterproteins mCherry detektiert wurde. Die Messungen wurden jeweils bei zellsuspensionen mit dem TECAN-Reader „Infinite® 200 PRO“ der Tecan Group Ltd., Schweiz, durchgeführt. Die relative Fluoreszenz, bei der es sich um die gemessene Emission
in Bezug auf die OD600 der jeweiligen Zellsuspension handelt, spiegelt die Stärke des jeweiligen Promotors wieder.
Des Weiteren wurde die Klonierung des Promotors PbgaL2 durchgeführt.
Diese Arbeit behandelt die Herleitung und Verwendung eines alternativen Unähnlichkeitsmaßes im Neural - Gas - Algorithmus. Dabei werden zuerst ausgewählte Algorithmen vorgestellt und in das Feld der Vektorquantisierer eingeordnet. Anschließend wird die sogenannte Tangentenmetrik mathematisch motiviert und vermutete Vorteile gegenüber anderen Metriken anhand künstlich
erzeugten und real existierenden Beispielen experimentell untersucht. Weiterhin werden die Laufzeitkomplexität und beobachtete Limitierungen des neuen Algorithmus näher beleuchtet.
Ziel der vorliegenden Bachelorarbeit ist es, über das Thema Verschlüsselungstrojaner aufzuklären und dabei auf eine mögliche Prävention durch die Produkte Sandstorm und Intercept X der Firma Sophos einzugehen. Dabei wird besonders auf die Gefahren und Präventionsmöglichkeiten im Allgemeinen eingegangen sowie eine Sicherheitsanalyse im Themenspezifischen Kontext durchgeführt. Weiterhin wird der Anbieter Sophos mit anderen Anbietern verglichen und anhand von verschiedenen Parametern bewertet.
In Zeiten, in denen Unternehmen rechenintensive Anwendungen auf externe Server auslagern, gewinnt Cloudcomputing immer mehr an Bedeutung. Das Problem dabei ist, um Operationen auf herkömmlichen, verschlüsselten, ausgelagerten Daten ausführen zu können, müssen diese zuerst entschlüsselt werden. Vertrauliche Daten liegen in dem Zeitraum der Bearbeitung unverschlüsselt vor, was zu einem Datenschutz- und Sicherheitsproblem führt. Dieses Problem kann durch vollständig homomorphe Verschlüsselungen gelöst werden. Diese moderne Verschlüsselungstechnik erlaubt das Ausführen von Operationen auf verschlüsselten Daten und wird in dieser Arbeit grundlegend vorgestellt. Weiterhin werden Bibliotheken, die homomorphe Verschlüsselungen implementieren, vorgestellt und mittels Benchmarking miteinander verglichen. Anschließend wird ein Anwendungsbeispiel formuliert, das die Vor- und Nachteile homomorpher Verschlüsselungen simulieren soll. Die Implementierung des Anwendungsbeispiels erfolgt mithilfe der im Benchmarking ermittelten leistungsstärksten Bibliothek - der Microsoft SEAL Bibliothek. Mit den in dieser Arbeit erlangten Erkenntnissen soll der Einstieg in die komplexe Thematik der homomorphen Verschlüsselungen vereinfacht werden und gleichzeitig zur Auseinandersetzung mit dieser Verschlüsselungsmethodik angeregt werden.
Durch Eindringen in die Wirtszelle kann sich das SARS-CoV-2-Virus verbreiten. Das adaptive Immunsystem bildet verzögert die humorale Immunantwort durch hochspezifische Antikörper aus. Die Antikörper neutralisieren das SARS-CoV-2. Im Laufe der Immunabwehr steigen die Antikörpertiter der verschiedenen Antikörperklassen unterschiedlich an. Mittels Serumproben sollte herausgefunden werden, wie der IgG-Titer nach einem positiven PCR-Ergebnis von der Zeit abhängig verläuft und ob es Unterschiede zwischen verschiedenen Geschlechtern und Altersklassen gibt. Für die Ermittlung der IgG-Titer wurden einmal der ELISA mittels Generic Assays CoV-2 IgG und einmal der CLIA mittels LIAISON® SARS-CoV-2 TrimericS IgG angewandt. Zudem fand eine Vergleichsmessung der Tests statt.
Im Allgemeinen stieg der Titer innerhalb der ersten 50 Tage an, da sich in dieser Zeit die IgG-Antikörper ab Tag 14 bilden, und erreichte das Maximum im Bereich 40-50 Tage. Danach fiel der Titer leicht bis auf 60 -70 % des Maximums, da die Antikörper nach und nach absterben.
Die Vergleichsmessung ergab einen linearen Zusammenhang von 64 % zwischen Generic Assays und LIAISON®. Bezogen auf die qualitative Aussage der Tests gab es eine 96 % Übereinstimmung der Ergebnisse.
Die vorliegende Bachelorarbeit beschäftigt sich mit maschinellem Lernen im Kontext des autonomen Fahrens. Das Ziel dieser Arbeit ist das Anlernen eines Steuerungsmechanismus eines simulierten Fahrzeugs, auf Grundlage maschineller Lernverfahren, speziell dem Deep Reinforcement Learning. Dazu werden zunächst die Grundlagen des autonomen Fahrens und des maschinellen Lernens geklärt. Mit der Unity-Engine und dem ML-Agents Toolkit wurden Szenen erstellt, in denen Agenten trainiert werden. In verschiedenen Szenen mit unterschiedlichen Komplexitäten und Aufgaben sollen die Agenten lernen ein simuliertes Fahrzeug zu steuern und die jeweilige Aufgabe zu erfüllen. Um das Fahrzeug zu steuern muss der Agent die Längs- und Querführung übernehmen. Die Aufgaben können zum Beispiel anhalten in einem Zielbereich, ausweichen vor Hindernissen oder folgen eines bestimmten Streckenverlaufs umfassen. Die Ergebnisse zeigten, dass es möglich ist ein simuliertes Fahrzeug, mit einem durch Deep Reinforcement Learning angelernten Steuerungsmechanismus, zu steuern. In den meisten Szenen zeigten die Agenten ein gutes Verhalten. Durch die Ergebnisse konnten Erkenntnisse gewonnen werden, welche Faktoren bei Lernvorgängen besonders wichtig sind. Es zeigte sich, dass unter anderem die Wahl einer guten Belohnungsfunktion ausschlaggebend war.
The number of Internet of Things (IoT) devices is increasing rapidly. The Trustless Incentivized Remote Node Network, in short IN3 (Incubed), enables trustworthy and fast access to a blockchain for a large number of low-performance IoT devices. Although currently IN3 only supports the verification of Ethereum data, it is not limited to one blockchain due to modularity. This thesis describes the fundamentals, the concept and the implementation of the Bitcoin verification in IN3.
Im Rahmen dieser Arbeit wurden zwei verschiedene Rührkesselreaktoren betrieben. Der Erste diente dazu, den Biogasbildungsprozess aus stickstoffreichen Substraten abzubilden. Im Laufe des Versuches wurde dem Reaktor durch die Nitrifikation/Denitrifikation-Verfahren stickstoffreduzierter Klarlauf hinzugefügt. Dabei wurde ein Anstieg der Methanausbeute und der Biogasbildung beobachtet. Der zweite Reaktor wurde als SBR (Sequencing Batch Reactor) betrieben, um das Anammox-Verfahren als alternative stickstoffreduzierende Methode bei Gärresten zu untersuchen. Dabei wurde am Ende des Versuchs ein Abbau des Ammoniumstickstoffes von ca. 20 % erreicht.
In der vorliegenden Arbeit werden drei Verfahren zum Nachweis von Legionella spec. auf ihre Einsatzfähigkeit in belasteten Wässern untersucht. Es werden theoretische Aus-sagen zum Thema Legionellen gemacht sowie die prinzipiellen Grundlagen der Metho-den - Kulturverfahren, ScanVIT® Legionella-Test und LegiolertTM-Test - dargestellt. Die Ergebnisse von untersuchten Kühlwasser- und Abwasserproben werden anschlie-ßend gegenübergestellt.
Durch starkes Bevölkerungswachstum und den zunehmenden Mangel an landwirtschaftlich nutzbaren Flächen werden effektivere Pflanzen benötigt, um einer Hungersnot und Mangelernährung vorzubeugen. Diese können durch gezielte Eingriffe in das Genom optimiert und schließlich mittels Phänotypisierung analysiert werden. Während herkömmliche Verfahren Pflanzenparameter nur abschätzen können, ist eine genaue Bestimmung mithilfe von dreidimensionalen Modellen möglich. So bietet die Photogrammetrie, als Low-Cost-Anwendung, ein weites Einsatzspektrum. Die im mittleren Preissegment angesiedelten Structured-Light-Scanner können ebenfalls 3D-Pflanzenmodelle schnell, einfach und kostengünstig rekonstruieren. Ein 3D-Modell einer Pflanze bietet die Möglichkeit, Pflanzenparameter digital zu ermitteln und innerhalb kurzer Zeit unterschiedlichste Genotypen zu vergleichen. In dieser Arbeit wurden Pflanzenparameter von der Ackerschmalwand (Arabidopsis thaliana) und von Weizen (Poaceae) in einer 3D-Umgebung
mit Referenzdaten verglichen. Zur Evaluation der Performance der Scanning-Verfahren wurden verschiedene Parameter untersucht. Dabei wurden die Genauigkeit, Geschwindigkeit, Handhabbarkeit, Rechenanforderung und Flexibilität untersucht.
Die vorliegende Arbeit soll einen Überblick über den Nachweis des Bakteriums Clostridium perfringens in Rohwasserproben geben. Für die Identifizierung dieser
Bakterienart dienen die Nachweismethoden nach ISO 14189 und mCP nach Trinkwasserverordnung 2001.
Des Weiteren werden die erforschten Ergebnisse der beiden Verfahren gegenüber gestellt und miteinander verglichen.
Der Pansensaft der Wiederkäuer wird für die Analyse der Umsetzung von Futtermitteln genutzt, um z.B. auf die verdaute Menge des Futtermittels zu schließen. Ein Test hierfür ist der Hohenheimer Futterwerttest, welcher die Grundlage der Untersuchungen in dieser Arbeit darstellt. Als Alternative für den Pansensaft wurde eine Kot-Suspension, mit der im Vorfeld getesteten optimalsten Verdünnung, verwendet. Ein Vergleich beider Methoden soll Aufschluss über die Anwendbarkeit des Hohenheimer Futterwerttests, mittels einer Kot-Suspension, geben.
Die vorliegende Masterarbeit befasst sich mit der Thematik der vergleichenden Untersuchung zur Ausprägung sehnenspezifischer Marker in Scaffold- versus Sphäroid-basierten Tissue Engineering Konstrukten. Dafür sollten humane aus dem Knochenmark stammende mesenchymale Stammzellen verwendet und tenogen differenziert werden und auf einem Kollagen-Scaffold oder als Sphäroid im Kollagen-Hydrogel kultiviert werden. Aussagen über eine mögliche Differenzierung sollten durch mikroskopische Untersuchungen und durch qPCR ermittelt werden.
Die Bildung von Sphäroiden sollte durch die Kultivierung im Hanging-Drop mit der Kultivierung in Mikrotiterplatten mit zellabweisender Oberfläche vergleichend untersucht werden. Dafür wurden neben mikroskopischen Untersuchungen, Färbemethoden und Gefriermikrotomschnitte herangezogen.
Als Positivkontrolle wurden humane Tenozyten (Sehnenzellen) verwendet.
Diese Arbeit thematisiert die vergleichende Untersuchung der Wahrnehmung optischer Illusionen in der Realwelt und der virtuellen Realität. Dabei stellt sich die Frage, ob und wie die Probanden visuelle Illusionen wahrnehmen. Im Rahmen dieses Projekts entsteht eine VR-Anwendung in der Unity-Engine, in welcher der Nutzer in einer virtuellen Galerie optische Illusionen erleben und kleine Rätsel lösen kann. Die Daten werden durch die Befragung von Testpersonen ermittelt, mit dem Ergebnis, dass visuelle Illusionen sich in VR gut darstellen lassen, es allerdings zu einem verringerten Effekt bei Nachbildern kommt. Die Anwendung ist durch Zuhilfenahme neuer Funktionen leicht erweiterbar.
Offensive Sprache im Internet ist ein stark diskutiertes Problem in sozialen Medien. Angriffe richten sich oftmals gegen Einzelpersonen, können aber auch auf Gruppen und andere Strukturen abzielen. Die Erkennung angreifender Inhalte funktioniert in vielen Ansätzen bereits sehr gut. Die Erkennung der Ziele hingegen ist bisher nur wenig erforscht. Die vorliegende Arbeit befasst sich mit der Aufarbeitung des aktuellen Forschungsstandes zu offensiver gerichteter Sprache, den Grundlagen derer Erkennung und dem Vergleich verschiedener Ansätze. Die Auswirkungen von Vorverarbeitung und Parametrisierung der Modelle werden analytisch diskutiert.
In der vorliegenden Bachelorarbeit wird die Wahrnehmung von übermäßiger Polizeigewalt mit der tatsächlichen Vorgehensweise der Polizeibeamten abgestimmt und mit der gesetzlichen Vorgabe zur Herangehensweise verglichen. Gemäß der in dieser Arbeit vermittelten Grundlagen zu Hellfeld und Dunkelfeld sowie der Anzeigebereitschaft wird ein grundlegendes Verständnis für die beschriebene Problematik fundiert. Die aufgeführten Beispiele dienen der Untersuchung des Problems und zur differenzierten Auseinandersetzung mit der Thematik, zum einen der Analyse des jeweiligen Falles und deren beschriebene Situation zur Lage und zum anderen der angeschnittene Umriss zur juristischen Sachlage dieser.
Die vorliegende Arbeit befasst sich mit der Alters- und Geschlechtsbestimmung eines rezenten Schädels mit Hilfe einfacher morphognostischer und morphometrischer Methoden. Im morphognostischen Teil wird eine Altersschätzung anhand der Schädelnahtobliteration und der Zahnabrasion sowie eine Geschlechtsdiagnose mit Hilfe morphognostischer Schädelmerkmale durchgeführt. Nach einer morphometrischen Aufnahme des gesamten Schädels sowie des Felsenbeines wird das Geschlecht zudem mittels einer Diskriminanzanalyse bestimmt. Basierend auf diesen Untersuchungen werden anschließend ein Vergleich sowie eine Bewertung der verwendeten Methoden durchgeführt, wobei Probleme der einzelnen Verfahren diskutiert werden und eine Einschätzung der Genauigkeit erfolgt. Ein weiteres Ziel der Arbeit ist, mit Hilfe der Ergebnisse zu beurteilen, inwieweit
eine Alters- und Geschlechtsbestimmung nur anhand eines Schädels möglich ist und wie aussagekräftig diese sind.
Das Videospiel immer häufiger auch als erzählerisches Medium genutzt. Von den Entwicklern fordert dies eine Gradwanderung zwischen Game Design und Erzählung. Es mussten mit der Zeit neue Wege gefunden werden, Narrativen in das Spiel einzubinden. Diese Arbeit thematisiert die Untersuchung der Wahrnehmung und Interpretation von Environmental Storytelling in 2D-und 3D-Umgebungen. Es wird untersucht, ob es, abhängig von der Dimensionalität, Unterschiede in der Effektivität verschiedener Erzählerischer Mittel gibt. Um diese Frage zu beantworten, werden zwei sich inhaltlich gleichende Demos erstellt, die sich nur durch ihre Darstellung unterscheiden. Die, durch eine Befragung der zwei Testgruppen, erhobenen Daten werden anschließend evaluiert. Es ergab sich, dass dreidimensionale Umgebungen eher zum Erkunden einladen, es werden jedoch im Gegensatz zu 2D-Welten leichter wichtige Objekte übersehen. Für weitere Forschungen, sollten einzelne Aspekte des Environmental Storytelling genauer untersucht und bewusst auf die entsprechende Dimensionalität angewandt werden.
In dieser Arbeit erfolgt eine Betrachtung der Speichertechnologie Object Storage sowie eine vergleichende Analyse verschiedener Lösungsansätze von OpenStack sowie EMC Corporation. Zu Beginn werden allgemeine Aspekte zur Funktionsweise von Objektspeicher in den Vordergrund gestellt, um Anhaltspunkte für die Bearbeitung und Bewertung der konkreten Systeme zu gewinnen. Zudem erfolgt eine Gegenüberstellung dieser Technologie mit Block- und Dateispeicher.
Die anschließende Detailbetrachtung der Lösungen befasst sich mit OpenStack Swift, Swift-Stack sowie EMC ViPR, ECS und Isilon. Auf Basis eines gestellten Anforderungsprofiles werden zudem zwei Beispielarchitekturen eines Object Storage Clusters vorgestellt. Abschließend erfolgt auf Basis definierter Bewertungskriterien ein direkter Vergleich der betrachteten Systeme sowie eine darauf aufbauende Empfehlung zur Auswahl eines Systems.
Die immer größer werdenden virtuellen Welten von Computerspielen mit spannendem und glaubhaftem Inhalt zu füllen, ohne die Entwicklungszeit enorm in die Höhe zu treiben, ist eine der großen Herausforderungen für Spielentwickler heutzutage. Eine Möglichkeit dieses Problem anzugehen ist der Einsatz computergestützter Generierungsalgorithmen um manuellen Aufwand zu verringern. Die vorliegende Arbeit befasst sich mit der Umsetzung dreier Data-To-Text-Ansätze zum Zweck der automatischen Generierung von Questtexten aus einer Datenstruktur in der Spieleentwicklungsumgebung Unity. Die entstehenden Implementierungen werden im Anschluss evaluiert auf Eignung für den Anwendungsfall. Folgende Methoden zur Realisierung der Texte werden angewandt: Templating, Templating mit Template-Generierung aus einer kontextfreien Grammatik, sowie die Oberflächenrealisierungsbibliothek SimpleNLG
In dieser Arbeit wurden kulturelle Nachweisverfahren zur Detektion von Vaginitis Erregern mit molekularbiologischen Methoden verglichen und bewertet. Für diese Untersuchung standen Vaginalabstriche von Patientinnen zur Verfügung. Diese Vaginalabstriche wurden von Gynäkologen zur Untersuchung auf pathogene Keime in das Fachlabor „Diagnosticum“ nach Neukirchen geliefert. Es wurden folgende verschiedene Universal- und Selektionsnährmedien für den Nachweis verwendet: TSS-, MCK-, MRS-, PVX-, GAR- und CAN2-Agar. Außerdem erfolgte eine mikroskopische Beurteilung (Nugent-Score) der Abstriche. Dazu wurden die Proben nach der Gram-Färbung bei 1.000-facher Vergrößerung mikroskopisch betrachtet und bewertet. Nach der Identifizierung möglich pathogener Keime erfolgte die Resistenztestung, um für den behandelnden Gynäkologen die Auswahl des richtigen Antibiotikums zu erleichtern.
Die beiden Resistenztestungssysteme, VITEK2- (bioMérieux) und Phönix-System (Becton Dickinson), basieren auf der Bestimmung der Minimalen-Hemmkonzentration. An molekularen Nachweismethoden wurde ein DNA-Hybridisierungsverfahren, Affirm-Test (Becton Dickinson), verwendet. Ferner wurden zwei Nukleinsäuren-Amplifikationsmethoden genutzt. Zum einen wurde eine Multiplex Real-Time PCR (fast-track) und zum anderen eine TMA (Transcription Mediated Amplification) Methode verwendet. Die Multiplex Real-Time PCR ermöglicht den Nachweis verschiedener Erreger (Chlamydia trachomatis, Neisseria gonorrhoeae, Mycoplasma genitalium, Trichomonas vaginalis, Mycoplasma hominis, Ureaplasma urealyticum und Ureaplasma parvum). Für das TMA wurde ein Combo Assay zur Detektierung von Chlamydia trachomatis und Neisseria gonorrhoeae genutzt. Während der Masterarbeit wurden 251 Patientenproben untersucht und ausgewertet.
In der folgenden Bachelorarbeit sollen die Bedingungen zur Herstellung von Fakefingerabdrücken, die mit einem Tintenstrahldrucker und einem Material aus Holz-leim und Glycerin hergestellt wurden verbessert werden. Grund dafür ist, dass es im vorangegangenen Praktikumsbeleg noch Mängel bei der Herstellung der Fakes gab. Außerdem sollen die idealen Bedingungen (Materialzusammensetzung und Bearbeitungsmethoden) herausgefunden werden, um Fakes dieser Art herzustellen. Außerdem soll ein neues Unterscheidungsmerkmal für die Erkennung von Fakefingerabdrücken untersucht werden, um in Zukunft die Unterscheidung zwischen Original und Fälschung zu verbessern.
Die vorliegende Bachelorarbeit gibt einen Überblick über die aktuellen Konzepte modularer Programmierung und deren Umsetzung mit JavaScript. Hierfür werden einige JavaScript Frameworks für die Erstellung einer einfachen clientseitigen Anwendung geprüft und unter verschiedenen Kriterien ausgewertet. Als Basis dieser Arbeit dienen Fachliteratur, die Dokumentation der jeweiligen Frameworks und die persönlichen Erkenntnisse und Erfahrungen des Authors. Der Verfasser erhofft sich dadurch einen Erkenntnisgewinn zur sauberen und modularen Programmierung mit JavaScript und wie diese bei kleinen und clientseitigen Anwendungen durch Frameworks erleichtert werden kann.
In dieser Arbeit werden die algorithmischen Grundlagen der Machine Learning Verfahren LVQ1 und LVQ3 erläutert. Für LVQ3 werden mehrere Ansätze zur Anpassung der Lernrate betrachtet, die anschließend verglichen werden sollen. Dazu werden vier verschiedene Experimente durchgeführt, wobei zwei Datensätze Verwendung finden, deren Ursprung in medizinischen Bilddaten liegt.
Vergleich von Grid Computing und Cloud Computing anhand Regeln und Ziele im IT-Governance Prozess
(2023)
Diese wissenschaftliche Arbeit leistet einen Beitrag zum Thema „Cloud-Computing“, welches unterschiedliche Möglichkeiten und Dienste bietet. Im Gegensatz dazu befasst sich dieser Forschungsbericht zusätzlich mit dem Konzept des Grid-Computing. Zu Beginn werden die IT-Governance-Regeln verglichen, die im Cloud- und Grid-Computing eines Unternehmens eine große Rolle spielen. Dabei werden zwei Varianten der der IT zur Verfügung stehenden Infrastrukturen für ausgewählte Dienste eingerichtet, welche den Regeln der IT-Governance folgen müssen. Die in dieser Arbeit ermittelten Informationen bieten einen guten Ausgangspunkt für die Umstellung der IT auf Cloud- bzw. Grid-Computing
Ziel dieser Diplomarbeit ist es, eine Übersicht über einsetzbare Systeme zur stationären und mobilen Einzelarbeitsplatzabsicherung nach DGUV 139 in einem
Chemiewerk zu erstellen. Dabei sollen die Vor- und Nachteile der Systeme analysiert und nach technischen und wirtschaftlichen Kriterien bewertet und verglichen werden. Für eventuell bestehende Schwächen sollen Lösungsvorschläge zur Beseitigung gefunden werden.
Automatisierte Detektion von Minutien und Bestimmung der Grundmuster von Fingerabdrücken mittels der Methoden Crossing Number Concept und Template Matching sowie Vergleich verschiedener Vorverarbeitungsarten in der Software MATLAB. Zunächst werden die Grundmuster der Fingerabdruckbilder mittels MATLAB bestimmt und mit den tatsächlich vorhanden Grundmustertypen in den jeweiligen Fingerabdrücken abgeglichen. Danach werden Gabel-Minutien in den ausgedünnten Papillarlinienbildern der Fingerabdrücke mittels MATLAB detektiert. Hierbei kommen das Crossing Number Concept und das Template Matching Verfahren zur Anwendung. In jedem Verfahren wird die Precision berechnet und die Methoden untereinander verglichen. Zuletzt wird analysiert, wie sich Änderungen in den Vorverarbeitungsschritten der Fingerabdruckbilder auf das Papillarlinienbild auswirken.
Aufgrund der steigenden Anzahl an Angriffen durch neue Malware Varianten ist es wichtig eine effektive Methode zu nutzen, um sich gegen diese Flut zu schützen. Diese von den Angreifern genutzte Malware muss identifiziert und analysiert werden, um die Systeme vor aktuelle und kommenden Angriffen schützen zu können. Für die Informationsextraktion stehen zwei grundlegende Ansätze zur Verfügung. Statische Analyse und die dynamische Analyse. Das Hauptaugenmerk liegt in dieser Arbeit auf der dynamischen Analyse. Diese wird genutzt um das Verhalten einer potentiell bösartigen Datei zu beobachten und anschließend auszuwerten, ob es sich um Malware handelt. Eine dafür häufig eingesetzte Methode ist die Sandbox. Bei dieser handelt es sich um eine isolierte Umgebung, in der eine Malware ausgeführt werden kann, ohne ein Risiko für das eigene System darzustellen. Bei der Nutzung eines Sandbox Systems wird ebenfalls von dem Begriff der automatisierten Malware Analyse gesprochen. Damit ist es möglich auch große Mengen von Malware Samples zu analysieren. Nach der Analyse wird neben der Bösartigkeit einer zu untersuchenden Datei, ebenfalls die gesammelte Daten über diese ausgegeben. Diese Arbeit vergleicht drei verschiedene Sandbox Systeme, um anschließend festhalten zu können, welches dieser Systeme die meisten Vorteile mit sich bringt. Bei diesen ausgewählten Sandbox Systemen handelt es sich um Cuckoo, Any.Run und Hybrid Analysis. Um eine Gegenüberstellung der Sanbox Systeme zu ermöglichen, wurden diverse Metriken verwendet. Zu diesen Metriken zählen unter anderem genutzte Anti-Evasion Techniken und die Möglichkeit einer URL Analyse. Nach umfassender Nutzung aller drei Sandbox Systeme, wurde eine Vergleichmatrix mit den bereits erwähnten Metriken erstellt. Anhand dieser konnten die Vor- und Nachteile der Sandbox Systeme gegeneinander abgewogen werden.
Diese Arbeit widmet sich dem Vergleich forensischer Software in der mobilen Forensik. Das Ziel der Arbeit besteht darin, forensische Images mit mehreren Tools zu analysieren und die Ergebnisse gegenüberzustellen. Dabei wird insbe-sondere auf die Qualität der Ergebnisse und der auf die Analyse verwendete Zeitaufwand berücksichtigt. Der Vergleich schließt die Tools XRY von MSAB, Oxygen Forensic Detective von Oxygen Forensics und das Open-Source Tool Autopsy ein.
Das Ziel dieser Arbeit ist es, die Möglichkeit der Nutzung von Rust als Ersatz für C und Java zu evaluieren. Diese beiden wurden als Vertreter von hardwarenahen bzw. einfacheren und höheren Sprachen gewählt. Sie sind außerdem bekannt dafür, unsicher bzw. langsam zu sein. In beiden Punkten soll Rust genauso gut oder besser sein als C und Java. Daher werden sie für die drei Sprachen verglichen. Da für die Wahl einer Programmiersprache auch entscheidend ist, wie aufwendig es ist, ein Programm zu erstellen, wird die Komplexität als dritter Aspekt für den Vergleich genutzt.
Anhand von Benchmarks wird zunächst die grobe Geschwindigkeit und Speichernutzung untersucht, während die Sicherheit der Sprachen in der Theorie und an einer realen Sicherheitslücke betrachtet wird.
Für einen ausführlichen Vergleich wird ein in allen drei Sprachen erstellter Webserver genutzt. Mittels diverser Metriken wird die Komplexität des Quellcodes analysiert und anschließend mit Laufzeitmessungen die Performanz.
Im Ergebnis ist Rust geeignet, C zu ersetzen, da es ähnlich schnell ist und ähnlich komplex, aber deutlich sicherer. Java hingegen ist zwar langsamer, aber dafür einfacher als Rust und sollte daher weiter eingesetzt werden für Programme, bei denen eine hohe Leistung nicht wichtig ist.
Die folgende Arbeit vergleicht die Möglichkeiten zur Erstellung von prozeduralen Texturen in Substance Designer mit denen in Blender. Dafür werden in beiden Programmen abstrakte und natürliche Texturen praktisch erstellt. Anschließend werden die Erstellung und die daraus gewonnen Erkenntnisse ausgewertet. Anhand der Resultate wird bewertet, wie die beiden Programme zueinander eingeschätzt werden können.
Private Blockchain-Netzwerke können von Unternehmen für die Integritätssicherung von Produktionsdaten verwendet werden. Die Hochschule Mittweide entwickelt im Rahmen des Forschungsprojektes safe-UR-chain ein derartiges Blockchain-Netzwerk. Teil dieser Entwicklung ist die Auswahl und Optimierung eines Konsensverfahrens für das Netzwerk. Für diese Aufgabe fehlt es momentan an einem System, das den Vergleich von Konsensverfahren anhand ihrer Leistungsmetriken ermöglicht. Diese Arbeit befasst sich mit der Entwicklung eines derartigen Systems sowie der Implementierung dreier Konsensverfahren, die anhand ihrer vom System erfassten Leistungsmetriken verglichen werden.
Diese Arbeit befasst sich mit dem Vergleich der forensischen Analyse von mobilen Endgeräten zwischen der Software Cellebrite Physical Analyzer, der Software Autopsy Digital Forensics und den Skripten aLEAPP und iLEAPP. Hierzu wurden zwei mobile Endgeräte mit den Betriebssystemen Android und iOS mit unterschiedlichen Anwendungen und Testdatensätzen versehen. Im Anschluss wurden die forensischen Datensicherungen durch die Softwareprodukte automatisiert aufbereitet. Die Ergebnisse der automatisierten Datenaufbereitungen wurden miteinander und mit den zu erwartenden Informationen verglichen. Hierbei konnte festgestellt werden, dass die Software Autopsy Digital Forensics und die Skripte aLEAPP und iLEAPP im Bereich der Aufbereitung mobiler Endgeräte, zum jetzigen Zeitpunkt, nicht die Ergebnisse der kommerziellen Software Cellebrite Physical Analyzer liefert.
Die Anforderungen an die Qualität und den Realismus von Videospielen und deren visuellen Effekten steigen kontinuierlich. Dies führt zu der Herausforderung, beeindruckende Effekte und eine gute Performance zu gewährleisten. Die Auswahl einer geeigneten Technik für ein Leistungsproblem ist daher wichtig. Aus diesem Grund widmet sich die Bachelorarbeit dem Vergleich verschiedener Methoden zur Optimierung der Darstellung visueller Effekte in Unity. Neben einer Literaturrecherche werden ausgewählte Verbesserungsmöglichkeiten wie zum Beispiel ein Level-of-Detail System oder Batching implementiert. Als nächstes findet eine Evaluation dieser Techniken in einem Testszenario mit ausgewählten Metriken wie beispielsweise Bildrate und Grafikkartenauslastung statt. Anschließend erfolgt der Vergleich ihrer Effektivität in Bezug auf die originale Version des visuellen Effektes. Die Ergebnisse der Untersuchung zeigen, dass insbesondere das Level-of-Detail System und die Culling-Methode einen signifikanten Einfluss auf die Grafikkartenauslastung haben. Zudem weisen die meisten Optimierungstechniken in Bezug auf die Metriken Vor- und Nachteile auf. Obwohl die erzielten Ergebnisse nicht unmittelbar auf die praktische Anwendung in Spielen übertragbar sind, ermöglichen sie dennoch eine wertvolle Vergleichbarkeit der angewendeten Methoden.
Die vorliegende Bachelorarbeit befasst sich mit aktuell existierenden Methoden zur Reduzierung des Polycounts eines 3D-Models. Ziel der Arbeit war es herauszuarbeiten, wie sich ausgewählte Remeshing-Methodiken für verschiedene Arten von Ausgangsmodellen eignen und diesbezüglich Empfehlungen auszusprechen. Im Rahmen dessen, wurde ein Maßstab zur Bewertung der Ergebnisse konzipiert, der eine Beurteilung der resultierenden Modelle anhand festgelegter Qualitätskriterien ermöglicht.
Ziel der Arbeit ist die bessere Überwachung einer dreispurigen Tankzugabfüllung. Im Hauptteil richtet sich die Betrachtung im Wesentlichen auf die Risikobetrachtung und Nutzwertanalyse sowie die Auswahl einer geeigneten speicherprogrammierbaren Steuerung sowie eines Bedienrechners. Des Weiteren befasst sich diese Arbeit mit der Einrichtung und Konfiguration der Überwachungsstation (Bedienrechner) sowie der speicherprogrammierbaren Steuerung.
In einer Zeit zunehmend inhomogenerer Browser-Geräte ist der Konkurrenzkampf im Bereich der HTML-Spiele größer denn je. Um Kunden langfristig zu binden und potenzielle Erlöse zu generieren, müssen die Spiele auf allen relevanten Browser-Plattformen, vom kleinsten Smartphone bis zu Tablets, PCs, Konsolen und TV-Geräten fortwährend Spaß bereiten. Diese Arbeit untersucht, ob mittels Änderungen am Leveldesign eines HTML-Bubbleshooters positive Effekte auf wirtschaftlich relevante Key Performance Indikatoren erzielt werden können. Hierzu werden Regeln für gutes Leveldesign in der einschlägigen Fachliteratur und anderen branchenrelevanten Quellen recherchiert und dargestellt. Auf Basis dieser theoretischen Grundlagen erfolgt eine Anpassung der ersten 10 Level von „kr3m.-Bubbles“ in einem iterativen Prozess mit dem Ziel, vorgegebene Benchmark-Zielgrößen soweit möglich zu erreichen.
Amplifikation von bekannten Kopienzahlvariationen mit ihren umgebenden Sequenzbereichen in einer Long-Range-Polymerase-Kettenreaktion und Auswertung der Produkte mittels Hochauflösender Schmelzkurvenanalyse auf einem LightCycler 480. Unterscheidung mehrerer CNVs von mitgeführten Referenzen durch die zwei Methoden der Hochauflösenden Schmelzkurvenanalyse Meltcurve-Genotyping und Gene Scanning. Grenzen, wie zum Beispiel Pseudogene, welche beachtet werden müssen oder eine eingeschränkte Eignung des Verfahrens für den Nachweis von Duplikationen wurden deutlich. Es zeigte sich zudem, dass eine große Menge an Referenzen empfehlenswert ist, die Amplifikationsparameter in der LR-PCR optimiert sein sollten und interkalierende Farbstoffe der zweiten Generation für die Verwendung in der HRM verwendet werden sollten. Bevor das Verfahren für den Nachweis von CNVs in Proben eingesetzt werden kann, sind weitere Untersuchungen und Optimierungen vorzunehmen.
In der vorliegenden Arbeit wird eine Methodik entwickelt, mit der ausgewählte forensische Software-Tools miteinander verglichen werden können. Dieser Ver-gleich basiert auf einem erstellten Image, welches diverse Artefakte beinhaltet. Auf Grundlage dieser Artefakte wird eine Bewertungsmatrix erzeugt, welche für den Vergleich der ausgewählten Forensik-Tools X-Ways, Axiom und Autopsy genutzt wird. Anhand der Ergebnisse, die durch die Matrix generiert wurden, lässt sich Axiom als bestes der drei getesteten Tools herausstellen. Hierbei muss allerdings berücksichtigt werden, dass die Beurteilung nach subjektiven Kriterien geschehen ist und keine eindeutige Aussage getroffen werden kann, ob ein forensisches Tool eine erfolgreiche Auswertung liefert
Bioaerosole kommen ubiquitär in der Atmosphäre vor. Sie sind meist ungefährlich, aber sie können auch Bestandteile enthalten, welche eine gesundheitliche Gefahr für den Menschen darstellen. Um ihre Inhaltsstoffe zu ermitteln werden sie beprobt. Die biologische Untersuchung dieser Proben erfolgt über Kulturen und molekularbiologisch. In den Fokus der molekularbiologischen Auswertung rückt zurzeit das third generation sequencing via Nanopore. Ziel dieser Arbeit ist es zu prüfen, ob die durch den Coriolis μ generierten Luftproben zur molekularbiologischen Analyse mit Nanopore Sequenzierung nutzbar sind. Dazu werden kulturbasierte und molekularbiologische Untersuchungsmethoden angewendet und miteinander verglichen. Es wird gezeigt, dass die Proben für eine weitere Nutzung durch Nanopore Sequenzierung geeignet sind.
Nach der erfolgreichen Etablierung der durchflusszytometrischen Methode zum XIAP-Nachweis auf T-, B- und NK-Zellen innerhalb des Praxismoduls sollte diese validiert werden. Zur Validierung wurde ein Inter- und ein Intraassay durchgeführt. Für die anschließende Beurteilung der Präzision der Methode wurde jeweils der Variationskoeffizient der Messwerte berechnet, dieser sollte bei ± 20% liegen. Für die Gewinnung von Referenzwerten wurde von 21 gesunden Personen Blut abgenommen und dieses analysiert. Anschließend wurden die Messwerte mithilfe des Friedman- und des Wilcoxon-Tests statistisch ausgewertet.
Der visuelle mikroskopische Spermanachweis gilt bis heute als aussagekräftigster Nachweis von Spermien in der forensischen Fallarbeit. Anhand der markanten Zellmorphologie kann ein Spermium von anderen Zellen und Partikeln unter dem Mikroskop abgegrenzt und unterschieden werden. Voraussetzung hierfür sind jedoch eine zuverlässige Aufarbeitungsmethode, um die Spermien eines Asservats auf einen Objektträger zu überführen und eine valide Färbemethode, welche die Spermien erst sichtbar macht.
Zielsetzung dieser Arbeit ist es, eine zeitsparende und effiziente Färbemethode zu finden, die in der praktischen Laborarbeit für den mikroskopischen Spermanachweis sicher angewandt werden kann. Verglichen werden hierfür im Folgenden die lichtmikroskopische Kernechtrot-Pikroindigokarmin- und die fluoreszenzmikroskopische SPERM HY-LITER-Färbung. Weiterführend werden reale Fallproben auf Spermien untersucht, um somit praxisnahe Gewissheit über die Effizienz der Methoden zu erlangen.
Krebs zählt zu den häufigsten Todesursachen. Die Suche nach neuen Wirkstoffen führt immer häufiger zu natürlichen Quellen. Das Heilkraut Artemisia annua L. bzw. dessen Sekundärmetabolit Artemisinin stellt einen Kandidaten zur Entwicklung neuer Krebsmedikament dar. Ursprünglich wurde Artemisinin in den 1970er Jahren als Mittel gegen Malaria entdeckt. Wie Studien beweisen konnten, weist die Verbindung auch eine selektive Wirkung gegen verschiedene Krebsarten auf. In dieser Arbeit wird Artemisinin bezüglich seiner Wirkung auf fünf humane Zelllinien (HeLa, 143B.TK-, HT-29, MCF-7, PC-3) untersucht, mit dem Ziel einen spezifischen Wirkort in den Mitochondrien zu identifizieren. Dafür werden die jeweiligen Krebszellen in Medium ohne Pyruvat und Uridin sowie in Medium mit beiden Zusätzen kultiviert. Nach einem Vorversuch wird der eigentliche Versuch mit der optimalen Artemisinin-Konzentration über sieben Tage durchgeführt. Die Ergebnisse umfassen mehrtägige mikroskopische Bildaufnahmereihen, Aufzeichnungen der Zellvitalität und der Gesamtlebendzellzahl sowie die relative Quantifizierung des mtDNA-Gehalts und des Expressionsniveaus respiratorischer Gene. Anhand dieser Untersuchungen kann davon ausgegangen werden, dass Artemisinin eine wachstumshemmende sowie zytotoxische Wirkung besitzt und in einigen der Zelllinien ebenso spezifisch in den Mitochondrien wirkt. Die Verbindung besitzt ein breites Wirkspektrum, was mit mehreren zellulären und molekularen Mechanismen assoziiert ist. Somit steht die Antikrebsaktivität von Artemisinin auch zusätzlich damit in Zusammenhang. Zudem besitzt Artemisinin eine unterschiedliche Wirksamkeit auf verschiedenen Arten von Tumorzellen.
Das Lehrmodul „Datenrepräsentation“ wird im 3 Semester in den Studiengängen der Informatik an der Hochschule Mittweida durchgeführt. In den Vorlesungen werden dabei verschiedene Datenrepräsentationstechnologien vorgestellt. Zur praktischen Umsetzung dieser Technologien finden außerdem eine Reihe von Praktikumsveranstaltungen statt. Diese Arbeit behandelt die Verbesserung und Erweiterung ausgewählter Praktikumsinhalte des Lehrmoduls Datenrepräsentation. Bestehende Praktikumseinheiten werden zunächst hinsichtlich der Struktur analysiert. Danach werden Verbesserungsmöglichkeiten erläutert und schließlich realisiert. Im Rahmen dieser Arbeit werden außerdem neue Praktikumseinheiten konzipiert, welche unter anderem die Technologien JSON und RESTful Webservices behandeln. Es werden neue Praktikumsanleitungen erstellt sowie Beispielprogramme implementiert, welche in den Praktikumsveranstaltungen des Lehrmoduls eingesetzt werden können.
Im Rahmen dieser Arbeit wurde die sekretorische Produktion des DESIGNER-Proteins DP10A durch Pichia pastoris untersucht. Dazu wurde die DNA-Sequenz des Zielproteins in den Vektor pPICZαA kloniert und in das Genom von Pichia pastoris durch homologe Rekombination integriert. Für die Auswahl eines geeigneten Klons wurde ein Klon-Screening durchgeführt. Zusätzlich wurde die Produktion des Zielproteins bei verschiedenen pH-Werten sowie die Löslichkeitsverteilung von intrazellulär vorliegendem DP10A untersucht.
Das DESIGNER-Protein DP10A konnte mit P. pastoris produziert werden. Allerdings konnte das Ziel einer sekretorischen Produktion nicht erreicht werden, da DP10A nur intrazellulär und hauptsächlich unlöslich in der Zelle vorlag.
Die vorliegende Bachelorarbeit ist eine Machbarkeitsstudie mit dem Ziel, die Umsetzbarkeit von Projekten mit Methoden aus der Modellgetriebener Softwarearchitektur (MDSD) in kleineren agilen Gruppen nachzuweisen. Wegen der vielen Kombinationsmöglichkeiten aus agilen und MDSD Methoden werden für das Pilotprojekt zur Organisation Kanban, Test Driven Development als agile Arbeitsmethode und als MDSD Methode die Entwicklung einer Domain Specific Language gewählt. Das Ziel des Pilotprojekts ist die Entwicklung einer neuen Domain Specific Language für das Programmieren von Incremental Game Prototypen.
Die Resultate der Arbeit sind: a) Ein nichtlinearer multivarianter Entscheidungsbaum zur Auswahl der geeigneten Rahmenbedingungen bei der Planung und Umsetzung von Domain Specific Languages, b) eine neue Methode zur agilen Entwicklung von Domain Specific Languages, nämlich die „Domain Specific Prototype Methode“ sowie c) der Beweis, dass die Verwendung von MDSD, zumindest von Domain Specific Languages, für die Arbeit in agiler Teams nicht nur möglich, sondern vorteilhaft ist.
Die Umsetzung der „Domain Specific Prototype Methode“ wird anhand des
Pilotprojektes sowohl in der Theorie als auch in der Praxis beschrieben.
Die Gamesbranche erwirtschaftet jedes Jahr mit AAA Titeln Milliardenumsätze und wächst stetig weiter. Diese wissenschaftliche Arbeit trägt den Titel: Untersuchungen zur Machbarkeit der Entwicklung von Games-AAA-Titeln durch kleine Teams. In der Arbeit wird analysiert ob es möglich ist AAA-Games-Titel mit kleinen Teams umzusetzen. Dafür wird die Entwicklung der Branche analysiert um Ausgangslage und Anforderungen für AAA-Titel zu definieren. Mit diesen Daten werden neue Arbeitsweisen und Technologien untersucht und bewertet. Aus diesen wird dann ein optimales Modell ab-geleitet mit dem AAA-Titel mit wenig Kapital und Entwicklern umgesetzt werden kann.
In der Restwasserklärung einer Papierfabrik treten seit Jahren Korrosionsprobleme auf, die die Funktionalität der Anlagen gefährden. Besonders stark ist der Schaden an Kupferbauteilen in den Schaltschränken. Verantwortlich sind aggressive Gase mit Schwefelwasserstoff als Hauptverursacher. Analysen haben ergeben, dass Schwefelwasserstoff in der Restwasserklärung ausgast, eine besonders starke Quelle ist der Krümelstoffhaufen, in dem optimale Bedingungen für mikrobielle Aktivität herrschen. Die Experimente haben ergeben, dass auch das Prozesswasser Sulfidionen bis zur Konzentration von etwa 0,8 mg/l führt. Die Schlammmischbütte ist ebenfalls ein Ort mit guten Bedingungen für die Sulfatreduktion, nur die niedrige Verweilzeit des Wassers von 20 Minuten dient dort als begrenzender Faktor für einen mikrobiellen Bewuchs. Der durchschnittlichen Sauerstoffkonzentration von 0,12 mg/l kann in der Gemeinschaft einer Sielhaut standgehalten werden. Direkt im Wasser sorgen in Verbindung mit Feuchtigkeit und Wärme Chloridionen für Korrosion an den Entwässerungsanlagen. Diese Schäden sind allerdings tolerierbar, die Standzeit der Anlagen wird nicht so extrem beeinträchtigt wie die der Schaltschränke. Als wirtschaftlich betrachtet beste Methode zum Schutz der Kupferkomponenten vor dem Schwefelwasserstoff erwies sich die Installation eines chemischen Filtersystems.
Im Rahmen der Untersuchungen für die vorliegende Bachelorarbeit wurden in fünf einstufigen Biogasreaktoren Maissilage vergoren. Die Zugabe von Harnstoff sollte eine Prozessstörung induzieren. Zur Überwachung des Prozessverlaufes erfolgten die gängigen Analysen (pH, FOS/TAC, NH4-N, GC etc.). Zusätzlich sollten Gasproben aus den Reaktoren entnommen und mittels IRMS analysiert werden, um das Isotopenverhältnis des gebildeten Biogases zu untersuchen.
In dieser Arbeit wird der Bootvorgang der i.MX RT117x-Prozessorfamilie sowie die Interprozessorkommunikation und -synchronisation zwischen den beiden Prozessoren dargestellt. Auf dieser Basis wird ein Beispielprogrammm, welches das Betriebssystem Zephyr einsetzt und auf dem Cortex-M7 läuft, erstellt. Dieses Programm soll mit einem Programm, welches in einer Baremetal-Umgebung eingesetzt wird, kommunizieren.
Seit 1949 wird Lithium, meist in Form von Lithiumcarbonat, zur akuten und prophylaktischen Behandlung affektiver Störungen eingesetzt. Der Lithiumspiegel der Patientinnen muss dabei genau eingestellt und regelmäßig überwacht werden. Die vorliegende Arbeit beschäftigt sich mit der Lithiummessung mittels ionenselektiver Elektroden (ISE) im Speichel und der Herstellung eines Kunstspeichels zur Kalibrierung der Elektroden. Bei der Lithiummessung kann es durch Störionen zu Quereinflüssen kommen, sodass die Lithiummessung beeinflusst wird. Diese Interferenzen sollen untersucht werden.
Untersuchungen zu Chancen und Limits von Texture Maps im Umfeld der Entwicklung digitaler 3D Spiele
(2017)
Der Fortschritt in Computerhard- und software ermöglicht der Spieleindustrie, immer technisch versiertere digitale Spiele zu entwickeln. Besonders der Bereich des 3D und 2D Designs profitiert davon, obgleich immer noch Grenzen vorzufinden sind, welche in Hinsicht auf die Generierung von Game Assets zu berücksichtigen sind. Die vorliegende Arbeit untersucht dabei den aktuellen Forschungsstand und analysiert diesbezüglich Chancen und Limits sogenannter Texture Maps zur Erzeugung von Detail auf dreidimensionalen Objekten. Die Resultate dieser Untersuchung sollen am ausgewählten Beispiel der Videospielreihe Tomb Raider aufgezeigt werden.
Tokengestützte Authentifizierung ist allgegenwärtig. Chipkartensysteme sind in vielen Branchen üblich oder sogar vorgeschrieben. Ein einfaches Passwort reicht häufig nicht mehr für Firmenarbeitsplätze mit großer Verantwortung aus, um den Zugang zu sichern. Die Lösung liegt häufig in der Verwendung von Smartcards oder Security-Tokens, die eindeutig identifizierbar und nicht kopierbar sind, und einen Zugang nur bei Befugnis gewährleisten. Digitronic entwickelte mit Secure Logon eine Software für Windowssysteme, die genau diese Funktionalitäten bereitstellt.
Da jedoch in einer Firma häufig unterschiedliche Betriebssysteme zur Anwendung kommen ist eine reine Windowsentwicklung, trotz hohen Marktanteils, unflexibel. Daher ist es Ziel dieser Bachelorarbeit, einen tiefen Einblick über die entsprechenden Authentifizierungsmöglichkeit und entsprechende Konfiguration im Feld von GNU/Linux zu geben. Auch soll ein Leitfaden für eine Portierung einer bestehenden Software gegeben werden.
In dieser Arbeit wird das Verhältnis des Datenschutzes in Europa im Jahr 2015 während der Euro Krise anhand der bevorstehenden Einführung der Datenschutz-Grundverordnung
verglichen. Es wird ein Vergleichsrahmen aus der geltenden Richtlinie und der zukünftigen Datenschutzgrundverordnung erstellt und eine Auswahl an Ländern mit dieser Richtlinie verglichen. Ziel ist es den Stand der einzelnen Länder im Europäischen Kontext zu vergleichen.
In dieser Arbeit wurde das Insektizid Imidacloprid hinsichtlich seiner Toxizität auf die Kompostwurmarten Eisenia fetidaund Eisenia andreiuntersucht. Zur Ermittlung der akuten und chronischen Toxizität wurden standardisierte Labortests nach den Richtlinien der OECD und ISO verwendet. Unter Exposition von Imidacloprid mit verschiedenen Konzentrationsstufen wurden Verhaltensänderungen, Biomasseverlust, Verringerung der Reproduktionsleistung und die Mortalitätsrate untersucht. Nach statistischer Auswertung wurden damit verschiedene Dosis-Wirkungs Kurven erstellt und die toxikologischen Kennwerte LC50, EC50, NOEC und LOEC ermittelt.
Liegt in menschlichen Zellen eine Mutation im Enzym Isocitrat-Dehydrogenase 1 (IDH1) vor, kommt es zur einer erhöhten Produktion des Metaboliten D-2-Hydroxyglutarat (D2HG), wodurch die Entstehung weiterer Mutationen begünstigt wird. Um das IDH1-Enzym zu inhibieren und damit die D2HG-Konzentration in den Zellen zu verringern, sollten die Wirkstoffe AGI-5198 und FMLW-12 getestet werden. Dabei wurde zum einen die Zelllinie HT1080 mit der IDH1-Mutation R132C und zum anderen die Referenzzelllinien HeLa und 143B, die den Wildtyp aufweisen, verwendet.
Bei der Kultivierung der Zelllinie HT1080 mit AGI-5198 konnte neben einer langsameren Proliferation der Zellen auch eine Verringerung der D2HG-Konzentration beobachtet werden, was zeigt, dass AGI-5198 das mutierte IDH1 inhibiert. Bei HeLa und 143B zeigte sich keine Veränderung der D2HG-Konzentration, allerdings wirkte AGI-5198 in höheren Konzentrationen toxisch auf 143B.
Auch der Wirkstoff FMLW-12 konnte die D2HG-Konzentration in der Zelllinie HT1080 senken, während HeLa und 143B nicht beeinflusst wurden. Jedoch musste das Detergens Digitonin zur Permeabilisierung der Zellmembran eingesetzt werden, da FMLW-12 diese ansonsten nicht passieren konnte.
Die vorliegende Arbeit beschäftigt sich mit der Analyse und dem Nachweis von unberechtigten RDP Zugriffen in Windows Netzwerkumgebungen. Dafür werden alle technischen Grundlagen zum Verständnis des RDP geklärt und mögliche
Angriffsszenarien sowie das Vorgehen von Angreifern aufgezeigt. Anschließend werden Indikatoren für unberechtigte Zugriffe erläutert und präventive Maßnahmen zum Schutz dargelegt.
Diese Arbeit beschäftigt sich mit Smartcards, welche mit Hilfe der NFC-Technologie kontaktlos Daten übertragen können. Zunächst wurde der theoretische Rahmen gespannt, um die Grundsteine dieser Forschung zu erläutern: RFID, Smartcards und NFC. In einer explorativen Untersuchung fand die Analyse und der Vergleich von Smartcards verschiedener Hersteller statt. Dazu wurden diese in einer virtuellen Testumgebung mit unterschiedlichen Android-Applikationen beschrieben und ausgelesen. Als Referenzanwendung diente eine selbstprogrammierte App. Die Ergebnisse zeigen, dass es ohne große Fachkenntnisse und mit geringem zeitlichen und finanziellen Aufwand möglich ist, Smartcards mit NFC-Chips auszulesen, welche für sensible Anwendungen, wie beispielsweise kontaktlose Bezahlvorgänge oder Patientendaten, verwendet werden.
Diese Arbeit befasst sich mit dem Erstellen eines digitalen, fotorealistischen Porträts. Dabei werden die Grundlagen sowie das Vorgehen beim Entstehungsprozess beschrieben. Im Weiteren untersucht diese Arbeit Methoden zur Einschätzung des Zeichenfortschritts des erstellten Bildes. Diese werden getestet und ihre Ergebnisse anschließend ausgewertet.
Das Ziel in der vorliegenden Arbeit ist es zu beantworten, ob die Programme Magnet AXIOM und Kipo Analyzer sich für die Klassifikation von Kinderpornographie eignen. Dazu wird folgende Forschungsfrage gestellt: Erkennen die Programme Magnet AXIOM und Kipo Analyzer ausreichend kinderpornographisches Material von gesicherten Asservaten, um die Anforderungen zur Entlastung von Ermittlern zu erfüllen? Zur Beantwortung dieser Frage wurde ein selbst zusammengestellter Datensatz mit den Programmen getestet. Hierbei erzielte das Programm Magnet AXIOM einen Recall von 70,13 % und eine Spezifität von 60,42 %. Im Vergleich erzielte der Kipo Analyzer einen Recall von 42,56 % und eine Spezifität von 97,5 %. Die Präzision und der F1-Score fiel bei beiden Programmen schlecht aus durch den unausgeglichenen Datensatz. Abschließend kann keine endgültige Aussage über die Eignung der Programme hinsichtlich der Klassifikation von Kinderpornographie gemacht werden. Die Programme müssten mit unterschiedlichen Datensätzen und Zusammensetzungen getestet werden.
Ziel dieser Masterarbeit ist eine Analyse des Voice-over-LTE-Netzwerkes auf Sicherheitsschwachstellen. Zuerst findet dafür eine theoretische Untersuchung des VoLTE-Protokolls mit einer Fokussierung auf seine sicherheitsrelevanten Merkmale statt. Anschließend wird das Session-Initiation-Protokoll (SIP) als Element für die praktische Untersuchung ausgewählt. Praktisch wird zuerst gezeigt, dass VoLTE-SIP-Pakete sensitive Daten enthalten, die auf den Endgeräten mitgelesen werden können. Anschließend werden manipulierte SIP-Pakete in das Netzwerk gesendet, die das Abfragen von Informationen und den Datenaustausch mit anderen VoLTE-Nutzern ermöglichen. Durch einen Vergleich der Arbeit mit anderen Veröffentlichungen wird gezeigt, dass es bereits ähnliche Ansätze gibt, die in dieser Arbeit verwendeten SIP-Pakete aber noch nicht für ein Auslösen unautorisierter Prozesse verwendet wurden. Zum Schluss wird dargestellt, in welchen Bereichen auf Basis dieser Arbeit weiter geforscht werden kann und welche Konsequenzen die gefundenen Ergebnisse für die VoLTE-Nutzer haben.
Im Jahr 2019 verzeichnete das Bundeskriminalamt in der Polizeilichen Kriminalstatistik einen neuen Höchststand an erfassten Fällen der Computerkriminalität. Zeitgleich lag die Aufklärungsquote für diesen Bereich der Kriminalität auf dem zweitniedrigsten Stand seit Beginn der Erfassung im Jahr 1987. Die digitale Forensik steht vor der Herausforderung, dass eine Ermittlung eine stetig wachsende Menge an heterogenen Daten umfasst. Eine Quelle für diese Daten bildet das Microsoft Betriebssystem Windows 10.
Diese Bachelorarbeit beschäftigt sich mit Artefakten eines Windows 10 Systems und damit, wie diese miteinander korreliert werden können. Ziel ist es eine Möglichkeit zu finden, den Forensiker bei einer forensischen Untersuchung zu unterstützen. Für diesen Zweck wurde eine Ontologie entwickelt, welche anhand ähnlicher Artefaktattribute eine Korrelation ermöglicht. Die praktische Umsetzung der Ontologie erfolgte mithilfe der Graphdatenbank Neo4j. Die Möglichkeiten der Datenbank wurde anhand von, für den Forensiker interessanten, Abfragen demonstriert.
Es wurden 30 Futtermittel durch die Verwendung einer Protease aus Streptomyces griseus auf ihren Gehalt an Durchflussprotein untersucht. Durch die Behandlung mit Pepsin und Pankreatin wurde anschließend die Dünndarmverdaulichkeit des Durchflussproteins bestimmt. Die bestimmten Durchflussproteinwerte wurden in der Diskussion mit geschätzten
Durchflussproteinwerten aus der Rohproteinfraktionierung sowie aus dem erweiterten Hohenheimer Futterwerttests verglichen.
In der vorliegenden Arbeit werden Bildanalysemethoden für die Lokalisation und Klassifikation von Eingabefeldern untersucht. Bei den Eingabefeldern liegt der Schwerpunkt auf den Benutzererkennungs- und Passwortfeldern, da die Verwendung der Bildanalysemethoden für eine Single Sign-On Lösung gedacht ist. Neben traditionellen Bildverarbeitungsmethoden, wie Segmentierung und Hough-Transformation, wird auch die Verwendung von neuronalen Netzen betrachtet.
Untersuchung potenzieller Angriffsvektoren auf Container-Infrastrukturen unter Nutzung von Docker
(2021)
Die Digitalisierung ist eine der größten Herausforderungen der Wirtschaft. Eine Containervirtualisierung kann dabei vielversprechende Lösungen bieten, unterliegt jedoch ebenso Angriffen. Diese Arbeit zeigt am Beispiel von Docker auf, mit welchen Angriffsvektoren auf eine Container-Infrastruktur gewirkt und mit welchen Schutzmaßnahmen diese gehärtet werden kann. Die Untersuchungen stellen dar, wie schützenswerte Daten erbeutet, exogen Einfluss auf die in Containern verarbeiteten Daten genommen und mit
Schadsoftware auf gesamte Infrastruktur gewirkt werden kann. Dabei werden Host, Container und weitere Komponenten gleichermaßen berücksichtigt. Die Abhängigkeiten innerhalb von Containern werden zwar voneinander isoliert, jedoch teilen sich Host und Container einen gemeinsamen Kernel. Aus diesem Grund rücken Containerausbrüche und Kernelangriffe in den Fokus. Für den sicheren Einsatz von Containern können korrekte Konfigurationen bezüglich der Systemaufrufe, Capabilities, Kontrollgruppen, Namensräume
oder des Rootless Mode von entscheidender Bedeutung sein.
In dieser Masterarbeit wird sowohl säurelösliches Kollagen, als auch Gelatine als Ausgangsmaterial verwendet. Dieser Ausgangsstoff wird anschließend funktionalisiert und verschieden photovernetzt, um verschiedene nanomechanischen Eigenschaften zu generieren. Diese werden durch statische Rasterkraftspektroskopie untersucht. Das modifizierte Kollagen und Gelatine werden dann nach DIN auf ihre Zytotoxizität getestet. Nach erfolgreicher Überprüfung werden Zellversuche vorgenommen um die Zellantwort auf die unterschiedlichen mechanischen Eigenschaften untersucht. Zuletzt wird in Gelatine die Oberflächenmorphologie von Kollagen gestempelt und eine Veränderung der Zellantwort zu nicht gestempelter Gelatine überprüft.
Titandioxid-Nanopartikel zählen zu den meist verwendeten Nanopartikeln der modernen Industrie. Durch ihre Anwendung gelangt ein Großteil ins Abwasser, womit das Verhalten der Nanopartikel in Kläranlagen einen entscheidenden Prozess für die Abschätzung des Umweltrisikos bildet. In dieser Arbeit wurden zwei Laborkläranlagen betrieben und Mittels der Abbauleistungen für TOC, DOC, TNb und Gesamtphosphor auf ihre Funktionsfähigkeit überprüft. Ein Kohlenstoffabbau von im Mittel >90 % wurde angestrebt und auch erreicht. Eine Anlage wurde einmalig mit 62,7 mg Titandioxid-NP beimpft. Die zweite Anlage wurde täglich mit 1 mg/d beimpft. In beiden Versuchen wurde ein Großteil der Nanopartikel (>90 %) im Schlamm wiedergefunden und nur 4 % bis 10 % in der wässrigen Phase. Es wurden keine negativen Auswirkungen auf die Mikroorganismen durch die Nanopartikel beobachtet
Nanopartikel gelangen vor allem aus der Industrie oder durch Regenwasser aus den Städten in Klärwerke und somit in den Wasserkreislauf. In diesem Versuch soll das Verhalten von Cerdioxid-Nanopartikeln in zwei Laborkläranlagen mittels verschiedener Zugabemethoden untersucht werden. Dafür wurden zunächst die Leistungsfähigkeiten der Laborkläranlagen untersucht, indem Proben des Zulaufes und des Ablaufes entnommen und die Überwachungsparameter analysiert wurden. Für die Untersuchung der Nanopartikel wurden die entnommenen Schlamm- und Ablaufproben aufgeschlossen und mittels ICP-MS gemessen.
Die Leistungsfähigkeit beider Laborkläranlagen konnte mit einem Kohlenstoffabbau von im Mittel über 90% nachgewiesen werden. Bei Laborkläranlage 1 wurde eine einmalige Zugabe der Nanopartikel gewählt, dabei setzten sich 95% der Nanopartikel im Schlamm und 5% im Ablauf fest. Im Gegensatz dazu wurde bei Laborkläranlage 2 eine kontinuierliche Zugabe gewählt. Zu Beginn der Versuchsreihe sind die Cerfrachten gesunken, da durch das hohe Blindwert-Niveau mehr Nanopartikel aus der Anlage herausgespült als hinzugegeben wurden. Nach einer Erhöhung der hinzugegebenen Masse war ein Anstieg der Cerfracht zu erkennen, da die Fracht, die aus der Anlage herausgespült wurde, kleiner war als die zugegebene Masse an Nanopartikeln. Die Nanopartikel setzten sich zu 96% im Schlamm und zu 4% im Ablauf fest.
Untersuchung des hämolytischen Verhaltens alternder Blutproben mit ausgewählten Lösungsmitteln
(2017)
Die Untersuchung der Blutspuren am Tatort kann bei der Aufklärung eines Verbrechens hilfreich sein. Neben der Blutmusteranalyse, bei der Form und Verteilung von Blutspuren untersucht werden, ist auch die Blutaltersbestimmung fundamental, um den zeitlichen Ablauf einer Tat detailliert beschreiben zu können. Dafür sind im letzten Jahrhundert viele Methoden vorgestellt worden. Neben einer Farbskala für die Bestimmung des Blutalters vom Anfang des 20. Jahrhunderts gibt es heute mittlerweile computergestützte Ansätze, die jedoch meist sehr zeitaufwendig sind und eine schwere oder gar teure Ausrüstung benötigen. In dieser Arbeit sollte das hämolytische Verhalten alternder Blutproben mit drei ausgewählten Lösungsmitteln (destilliertes Wasser, Kochsalzlösung und Zitronensäure) untersucht werden. Dazu wurden 40 Messungen von präparierten Blutproben mit einem Spektroskop durchgeführt und ausgewertet. Für die Bestimmung des Blutalters wurden die Peaks des Oxyhämoglobins, bei 540 und 576 Nanometer, und die des Methämoglobins, bei 500 und 630 Nanometer, näher betrachtet. Es konnte festgestellt werden, dass die Oxyhämoglobin-Peaks mit zunehmendem Blutalter abnehmen und die Methämoglobin-Peaks entsprechend zunehmen, bis die typischen Spitzen des Blutspektrums nicht mehr ersichtlich sind.