Refine
Document Type
- Bachelor Thesis (90)
- Diploma Thesis (18)
- Master's Thesis (10)
Year of publication
- 2017 (118) (remove)
Keywords
- Softwareentwicklung (5)
- Altersbestimmung (3)
- DNS (3)
- Videospiel (3)
- Bioinformatik (2)
- Blockchain (2)
- Computerforensik (2)
- Computersicherheit (2)
- Computerspiel (2)
- Daktyloskopie (2)
- Eingebettetes System (2)
- Gerichtliche Wissenschaften (2)
- Gesichtserkennung (2)
- Online-Shop (2)
- Virtuelles Laboratorium (2)
- 3D-Technologie (1)
- Abwasserreinigung , Cerdioxid , Nanopartikel (1)
- Algorithmus (1)
- Amyloid (1)
- Animationsfilm (1)
- Anwendungssystem (1)
- Arbeitsablauf (1)
- Arzneimittel (1)
- Automation (1)
- Bakterielle Infektion (1)
- Bildanalyse , Fließgewässer (1)
- Biofouling , Geothermik , Biotechnologie (1)
- Biogasgewinnung (1)
- Biologischer Abbau (1)
- Biomarker , Immunassay (1)
- Biometrie (1)
- Bioverfügbarkeit (1)
- Blut (1)
- Blutuntersuchung (1)
- Blutuntersuchung , Notfallmedizin , Laborparameter (1)
- Bodenbiologie , Bodenbearbeitung , Kalium , Ionenselektive Elektrode (1)
- CAN-Bus (1)
- Candida albicans , Infektion (1)
- Charakterdesign (1)
- Chipkarte , Nahfeldkommunikation (1)
- Computeranimation (1)
- Computergrafik , Dreidimensionale Computergrafik (1)
- Computerkriminalität (1)
- Computerspiel , Fotogrammetrie (1)
- Computerspiel , Rollenspiel , Abenteuerspiel , Virtuelle Realität (1)
- Computerspiel , Softwareentwicklung , Verkaufstechnik (1)
- Computerspielindustrie (1)
- DNS-Methyltransferase (1)
- Datenbank , Web-Anwendung (1)
- Datensicherung (1)
- Desktop (1)
- Digitale Signalverarbeitung (1)
- Drahtloses lokales Netz (1)
- E-Learning (1)
- Eindringerkennung (1)
- Elektronischer Fingerabdruck (1)
- Enzymatische Analyse , Denguevirus (1)
- Erfolgsfaktor (1)
- Erweiterte Realität <Informatik> (1)
- Fehleranalyse (1)
- Fernsehserie (1)
- Fertigungsanlage (1)
- Filmanalyse (1)
- Filmproduktion , Spezialeffekt , Computeranimation (1)
- Fotogrammetrie (1)
- Front-End <Software> , World Wide Web , React <Framework, Informatik> (1)
- Gamification , Verhaltensmodifikation (1)
- Gastrointestinale Krankheit , Pathophysiologie (1)
- Gefahrenabwehr (1)
- Gegensatz (1)
- Geschlechtsbestimmung (1)
- Gesellschaft (1)
- Gesundheitsinformationssystem (1)
- Glucosinolate , Kreuzblütler , Proteine , Hydrolysat (1)
- Gyrasehemmer (1)
- Hardware (1)
- Hochschule Mittweida <Mittweida> (1)
- Hämatoskopie (1)
- Informationsfilterung , Kollaborative Filterung (1)
- Internetkriminalität (1)
- Java <Programmiersprache> (1)
- Katalytische Reduktion , Visualisierung , c (1)
- Keratine , Extraktion , Hydrolysat (1)
- Kinderpornografie (1)
- Kläranlage (1)
- Kläranlage , Schwefelwasserstoff , Aktivkohle , Abluftreinigung (1)
- Kopienzahlvariation , Genamplifikation , Polymerase-Kettenreaktion (1)
- Krankenhaus (1)
- Kreatives Denken (1)
- Künstliche Intelligenz (1)
- LINUX , Systemprogrammierung , Malware (1)
- Labormedizin (1)
- Laständerung (1)
- Legionella , Kühlwasser , Abwasser , Nachweis (1)
- Malware (1)
- Marketingstrategie (1)
- Maschinelles Lernen (1)
- Maschinelles Sehen (1)
- Massenmedien (1)
- Medienkonsum , Unterricht , Medienpädagogik (1)
- Medienpolitik (1)
- Mixed Reality (1)
- Mobiles Endgerät , Smartphone , Android <Systemplattform> , App <Programm> (1)
- Molekularbiologie (1)
- Nanotechnologie (1)
- Netzgerät (1)
- Netzwerkverwaltung , Monitorüberwachung (1)
- Optischer Richtfunk (1)
- Orakel <Informatik> (1)
- Pathogene Bakterien , Medizinische Mikrobiologie , Minimale Hemmkonzentration (1)
- Pathogener Mikroorganismus (1)
- Photodiode , Optoelektronisches Bauelement (1)
- Phylogenetik , Schlauchpilze , Saccharomycetaceae (1)
- Pipette (1)
- Polymerase-Kettenreaktion (1)
- Polynom , Graphentheorie (1)
- Prozessmanagement (1)
- Qualitätsmanagement (1)
- Raspberry Pi , Leistungsmessung , Energieverbrauch (1)
- Rechnungswesen , Elektronische Buchführung , Softwaresystem (1)
- Rechtsmedizin , Schädel (1)
- Rot-Grün-Blindheit (1)
- Rüstzeit (1)
- Schimmelpilze , Leder , Oberflächenschaden (1)
- Schnittstelle (1)
- Schriftzeichenerkennung (1)
- Social Media , Datenanalyse (1)
- Software-defined networking (1)
- Softwaretest (1)
- Soziale Software (1)
- Soziales Netzwerk (1)
- Steuerungstechnik (1)
- Suberin , Cumarin , Biosynthese (1)
- Systemplattform (1)
- Taxonomie , Videospiel (1)
- Textur-Mapping (1)
- Tierarzneimittel (1)
- Tumorzelle (1)
- Umwelttoxikologie , Schadstoff , Stressor (1)
- Verbrennungsmotor (1)
- Videoaufzeichnung , Audiotechnik , Softwareentwicklung (1)
- Videospiel , Musik (1)
- Videospiel , Virtuelle Realität (1)
- Videospielemarkt , Computerspielindustrie , Japan , Kultur , Westliche Welt , Einfluss (1)
- Virtualisierung (1)
- Virtuelle Realität (1)
- Virtuelle Währung (1)
- Vorschulkind (1)
- Wasserstoffionenkonzentration (1)
- Website , Gestaltung (1)
- World Wide Web (1)
- Zellkultur (1)
- dreidimensionale Rekonstruktion (1)
Institute
- Angewandte Computer‐ und Biowissenschaften (118) (remove)
Aufgrund einer immer älter werdenden Bevölkerung ist das Thema des gesunden
Alterns ein wichtiges Forschungsfeld. Dabei haben vor allem molekulare Prozesse eine bedeutende Rolle, weshalb auch die DNA ein bedeutendes Untersuchungsobjekt darstellt. Neben Mutationen auf Sequenzebene gibt es auch Veränderungen der DNA auf einer übergeordneten Ebene, welche die Sequenzabfolge selbst nicht verändern. Ein solcher Prozess ist die DNA-Methylierung, welche in allen höher entwickelten Eukaryonten von großer Bedeutung ist. Ein Modellorganismus, der in der Alternsforschung
immer mehr Beachtung fndet, ist der manuelle Fisch N. furzeri. Da zur
DNA-Methylierung im Organismus N. furzeri noch nichts bekannt ist, erfolgte im Rahmen dieser Masterarbeit eine Untersuchung der globalen DNA-Methylierung im Alterungsprozess des N. furzeri.
Analyse des Einflusses verschiedener Umweltfaktoren auf die spektroskopische Blutaltersbestimmung
(2017)
Blutspuren gehören zu den wichtigsten Beweisen in der Forensik. Neben der morphologischen Untersuchung wie bei der Blutmusteranalyse, kann ebenfalls das Blut an sich untersucht werden um das Alter zu bestimmen. Somit lassen sich nicht nur Tathergänge rekonstruieren, auch eine Überprüfung der Aussagen von Zeugen oder Tatverdächtigen ist somit möglich. Allerdings erschweren Umweltfaktoren die Bestimmung des Alters. Der Einfluss der Faktoren Licht, Temperatur und Luftfeuchtigkeit wurde in dieser Arbeit mit Hilfe einer spektroskopischen Analysemethode, der UV/VIS-Spektroskopie, über einen Zeitraum von 21 Tagen untersucht. Für die Bestimmung des Blutalters wurden neben den vier spezifischen Blutpeaks, zwei Peaks aus dem UV-Bereich näher betrachtet. Es konnte beobachtet werden, dass vor allem die Temperaturverhältnisse einen großen Einfluss auf die Umwandlung von Oxyhämoglobin zu Methämoglobin haben. Die Umsetzungsrate ist hierbei viel geringer. Die Betrachtung der Peaks im UV-Bereich ergab, dass diese von Lichteinflüssen stärker beeinflusst werden. Jedoch eignen sich die Peaks nur bis zu einem Zeitraum von maximal fünf Tagen, da bei älteren Spuren die Werte nicht mehr zuverlässig sind.
Für die Unfallrekonstruktion bietet die Erstellung eines 3D-Modelles viele Vorteile. Es fallen weniger Daten bei der Datenakquirierung an und somit wird benötigte Zeit an der Unfallstelle reduziert. Zusätzlich lassen sich Messungen direkt am 3D-Modell vornehmen. Um eine möglichst genaue 3D-Rekonstruktion zu ermöglichen, wurde in dieser Arbeit der Einfluss von verschiedenen Aufnahmemethodiken und softwarespezifischen Prozessparametern, auf das mithilfe der Photogrammetrie Software Agisoft PhotoScan erstellte Modell untersucht. Da es bisher wenig Literatur gab, welche sichmit der richtigen Parametrisierung des Rekonstruktionsprozesses auseinandersetzte, wurde dabei deshalb empirisch vorgegangen. Als unterschiedliche Aufnahmemethoden wurden die Aufnahme direkt mit der Kamera aus der Hand, an einem Stativ und aus der Luft mit drei verschiedenen Kamerasystemen analysiert. Die rekonstruierten 3D-Modelle wurden auf ihre Abweichung und auf die optische Ähnlichkeit zum realen Modell untersucht. Das Ziel dieser Arbeit war die Optimierung des Rekonstruktions- und Aufnahmeprozesses für die Aufnahme einer Fahrbahn. Dabei stellten sich heraus, dass sich für verschiedene Aufnahmemethodiken unterschiedliche Prozessparameter eignen und dass die Parametrisierung, neben der Aufnahmemethodik, einen großen Einfluss auf das fertige 3D-Modell hat.
In der vorliegenden Arbeit wird das Thema Cybercrime umfangreich behandelt. Dabei wird unter anderem auf den klassischen Cyberangriff und auf das Thema Social Engineering eingegangen. Die Problematik der Cybercrime, wird für jeden leicht verständlich erklärt. Dabei wird eine neue und allgemeine Anatomie von Cyberangriffen erarbeitet und es werden aktuelle Beispiele diskutiert. Ziel der Arbeit ist es, ein Sicherheitsbewusstsein zu schaffen mit dem jeder sich sicherer in der digitalen Welt bewegen kann.
Die vorliegende Arbeit befasst sich mit einer Verbesserung des Produktverwaltungsprozesses eines Magento Onlineshops sowie einer verbesserten Bestellverarbeitung und dessen Integration zu Unternehmenssystemen. Mögliche Optimierungsansätze werden anhand der System-landschaft des Unternehmens XECURIS GmbH & Co. KG aufgezeigt. Unternehmen sind darum bemüht, Workflows möglichst effektiv und mit geringem Zeitaufwand zu gestalten. Insbesondere Unternehmen im IT-Umfeld sind darauf angewiesen, dass komplexe Geschäftsabläufe automatisiert und fehlerfrei abgearbeitet werden. Ziel der Arbeit ist es, Schwächen an der bestehenden Infrastruktur des Unternehmens zu analysieren, Optimierungsansätze zu entwickeln sowie Ansätze zu deren Implementation aufzuzeigen.
Im Rahmen der zwölfwöchigen Bearbeitungszeit wurde in dieser Bachelorarbeit die Analyse und das Zeitmanagement von Routineparameter in unserem Labor, labopart – Medizinische Laboratorien in Chemnitz, getätigt. Ziel war es durch statistische Erfassungen und intensive Mitarbeit, die Notwendigkeit der Anschaffung neuer Analyzer sowie weitere Optimierungsgründe finden und beschreiben zu können.
The Blockchain is a technology which has the capabilities to change the way, the world operates. As promising as this may be, there are still many challenges which do not exist or are way simpler to solve in conventional software solutions. Services which are offered over the blockchain suffer from so called Block-confirmation-times where the customer simply has to wait till the transaction is confirmed. In this paper possible solutions to that problem will be examined and challenges that arise from the specific criteria of the Ethereum Blockchain will be analyzed.
Abstract nicht vorhanden
Die vorliegende Arbeit befasst sich mit dem Aufbau einer zentralen Datenbank sowie der Entwicklung eines Webinterfaces. Dazu werden einleitend die nötigen Grundlagen erläutert und die aktuellen Technologien verglichen. Im Hauptteil wird die aktuell eingesetzte Anlagenliste auf Excel-Basis analysiert und Konzepte für die Datenbank und dem Webinterface erstellt. Im Anschluss daran werden die Konzepte umgesetzt und zum Schluss ein Fazit gezogen sowie mögliche zukünftige Entwicklungen angeschnitten.
Die vorliegende Arbeit befasst sich mit der Implementation einer Virtual Desktop Infrastruktur (VDI). Dies wird am Beispiel der Tirol Kliniken GmbH dargestellt. Im theoretischen Teil werden die Grundlagen der Virtualisierung und die Komponenten einer VDI betrachtet. Im praktischen Teil findet eine Auswahl und Konzeptionierung einer geeigneten VDI-Lösung für das Beispielunternehmen statt. Nach der Dimensionierung und prototypischen Implementation, erfolgt eine Überprüfung des benötigten Ressourcenbedarfs des VDI-Konzeptes.
Automatisierte Erkennung von Malware auf Linux Systemen mit Hilfe von Indicators of Compromise
(2017)
Die Bachelorarbeit beschäftigt sich mit der Frage, inwiefern eine automatisierte Suche nach Malwarespuren mit Hilfe von „Indicators of Compromise“ auf Linux-Systemen realisierbar ist. Hierfür wird eine Liste von möglichen Malwareindikatoren in einer Linux Umgebung erstellt. Durch den Autor wurden 25 Indikatoren aufgestellt. Zu jedem Indikator werden zwei Ansätze zur Automatisierung beschrieben. Ein Ansatz bezieht sich auf die automatisierte Datenerhebung. Der andere auf die automatisierte Analyse der erhobenen Daten. Für beide Ansätze werden innerhalb der Beschreibung Tools genannt, die für die Umsetzung in Frage kommen. Um die entwickelten Ansätze zu testen, wurden ausgewählte Indikatoren in einem Skript umgesetzt. Durch das Skript wurde die Erkennung von Malware auf Grundlage von Veränderungen in der Userlandschaft, Code innerhalb des Kernels und der Prozesse getestet. Hierfür wurde der Code auf einer mit Malware infizierten virtuellen Maschine ausgeführt. Die anschließende Überprüfung der erhobenen Daten konnte jedoch keine der getesteten Malware Beispiele anhand von IoCs erkennen. Daher müssen für eine effektive Malware Erkennung weitere Indikatoren hinzugezogen werden. Als Endergebnis der Arbeit konnte gezeigt werden, das eine teil-automatisierte Erkennung von Linux Malware mit Hilfe von IoCs möglich ist. Dabei kann vor allem die Datenerhebung automatisiert werden. Für die Analyse ist eine Automatisierung nur beschränkt möglich
Die Vorliegende Bachelorarbeit befasst sich mit der Bedeutung von Antagonisten in Videospielen. Ausgehend vom narrativen Aspekt dieses Mediums und auch im Hinblick auf Parallelen zu Film und Literatur, wird zunächst das Designen von antagonistischen Charakteren behandelt. Die Formen und Funktionen des Prinzips des Antagonismus werden erläutert. Anschließend steht das konkrete konzeptionelle und visuelle Design von Schurken im Mittelpunkt. Diese Betrachtungen münden schließlich in der Zusammenstellung eines Kriterienkatalogs zur Erstellung von Antagonisten. Dies ist das Ziel dieser Bachelorarbeit. Den Abschluss bildet die Schaffung eines eigenen Antagonisten unter Berücksichtigung der gewonnenen Kriterien.
In dieser Arbeit ging es hauptsächlich darum, zu untersuchen wie bestimmte, gewählte Degradationsparameter auf DNA Proben realer Personen einwirken und wie diese im Laufe der Zeit verändert werden. Besonderes Augenmerk lag hierbei auf dropout/dropin Phänomenen. Dabei wurde zusätzlich die Verwendbarkeit des Chimera® Mentype® Kits in der forensischen Spurenanalytik überprüft.
Es wurden unterschiedliche Spurenmaterialien von fünf Probanden über einen Zeitraum von 4 h bis 14 Tagen, diversen Temperaturen und UVC-Bestrahlung ausgesetzt. Die Auswertung erfolgte mittels STR-Profilen sowie Fragment Analyzer™. Ebenfalls wurden Hautabriebsspuren gesichert, welche mittels NanoDrop™ und Fragment Analyzer ™ analysiert wurden um eine Beurteilung über die Tauglichkeit dieser Tools vornehmen zu können.
Die Ergebnisse bestätigen, dass ein großer Unterschied zwischen Speichelproben und Mundschleimhautabstrichen besteht, was Degradationserscheinungen betrifft. Es konnte auch festgestellt werden, dass es signifikante Unterschiede bei den Probanden gibt. (Shedderstatus) Bei dem Vergleich von STR-Profilen mit den Fragment Analyzer™ Daten zeigt sich, dass eine Korrelation nicht möglich ist.
Der angesetzten Toolvergleich brachte hervor, dass der Fragment Analyzer™ effizienter und präziser ist, womit der NanoDrop™ vorgezogen werden sollte.
Diese vorliegende Arbeit behandelt das Thema „Biofouling durch oberflächennahe und mitteltiefe geothermische Wärmespeicherung“. Dazu wurden hydrochemische Eigenschaften ausgewählter Grundwässer untersucht. Hierauf folgte die Betrachtung von Insitu-Verhältnissen für Mikroorganismen in Geothermie und Bergbau. Anschließend wurden Schadensbilder in Form einer Fotodokumentation dargestellt.
In dieser Bachelorarbeit werden DNA-Mischspuren von zwei, drei und vier Personen im Hinblick auf Unterschiede in Peakhöhen und Peakareas untersucht. Dabei werden die Einflüsse sinkender DNA-Mengen, steigender Verhältnisse sowie Temperatur und UV-Lichteinfluss auf die Signalstärken der Allele betrachtet und verglichen. Es wird im Speziellen auf die Häufigkeiten aufgetretener Degradationsphänomene Allelic Drop-in und Allelic Drop-out eingegangen, sowie die genutzten STR-Systeme diesbezüglich bewertet. Die Abgrenzbarkeit der Mischspuren bzw. deren Bewertung erfolgt auf Grundlage der aktuellen Vorgaben der Spurenkommission.
Die vorliegende Arbeit hat es sich zur Aufgabe gemacht, einen effizienten Workflow für die Erstellung einer Destruction-Simulation herauszuarbeiten und Kriterien für ihre Glaubhaftigkeit darzustellen. In einer praktischen Umsetzung werden diverse Schritte zur Erstellung einer Simulation auf ihre Funktionalität überprüft und erklärt. Die Erkenntnisse aus der Analyse, gestützt durch die Aussagen von Spezialisten aus angesehenen VFX-Studios, verdeutlichen, dass viele Faktoren bei der Erstellung einer Simulation zu beachten sind, die deren Verlauf beeinflussen können.
Das Ziel dieser Arbeit war es, durch geschichtliche, technische und gesellschaftliche Analysen die heutige Medienlandschaft von Print, Fernsehen und Internet aufzuzeigen. Dabei wurden die Medien Print und Fernsehen auf ihre Konkurrenzfähigkeit in Verbindung mit dem Internet getestet. Durch Umfragen wurden die Nutzungsverhältnisse und Sichtweisen verschiedener Konsumenten ausgewertet. Die Ergebnisse lassen auf eine deutliche Bedrohung von Print und Fernsehen durch das Internet schließen.
Design und Implementierung eines Steuergerätes zur CAN-Signaldarstellung auf mobilen Endgeräten
(2017)
Im Rahmen der Diplomarbeit erfolgt die Konzeptentwicklung und Implementierung eines Steuergerätes, mit dem CAN-Signale auf mobilen Endgeräten dargestellt werden. Das Steuergerät stellt eine Kostengünstige sowie Flexibel einsetzbare Lösung dar. Die Signale werden in einer Web-Applikation bereitgestellt, die von mobilen Endgeräten aufgerufen werden kann. Das realisierte Steuergerät ist für den Einsatz in prototypischen Fahrzeugen konzeptioniert
Diese Arbeit behandelt die Entwicklung der Daktyloskopie als Instrument der Personenidentifizierung sowie der Bestimmung weiterer Informationen aus Fingerabdrücken. Unter Berücksichtigung des technischen Fortschritts des digitalen Zeitalters wird im Laufe der Arbeit nicht nur auf neue Methoden in der Daktyloskopie, sondern auch auf die Herausforderungen der Sichtbarmachung daktyloskopischer Spuren eingegangen. Daraus resultieren die Möglichkeiten Informationen zum Spurenverursacher zu erfahren, das Alter eines Abdrucks einzuschätzen und mittels der neuen Verfahren Abdrücke auf problematischen Oberflächen sichtbar zu machen. Auch die Entstehung des Fingerabdruck-Klassifizierungssystems wird in der Arbeit beschrieben. Durch die Auseinandersetzung mit jeglichen Entwicklungen in der Daktyloskopie soll schließlich geklärt werden, ob diese erfolgsversprechender sind, herkömmliche Mittel zur Sichtbarmachung daktyloskopischer Spuren ersetzen werden und ob in der Zukunft eine Automatisierung sowie Digitalisierung der Spurensuche stattfinden wird.
Digitaler Fingerabdruck PC
(2017)
Die vorliegende Arbeit befasst sich mit der Grundlagenentwicklung zur Erzeugung digitaler Fingerabdrücke eines PC Nutzers. Über eine Herleitung durch digitale Spuren werden Features identifiziert, die durch einen Nutzer am PC individualisiert werden können. Mit Hilfe eines selbstentwickelten Demonstrators werden diese erhoben und anschließend mögliche Vergleichsprozesse vorgestellt.
The endogen steroid hormone 17b-estradiol is a central player in a wide range of physiologic, behavioral processes and diseases in vertebrates. As a consequence, it is a main target for molecular design and drug discovery efforts in medicine and environmental sciences, which requires in-depth knowledge of protein-ligand binding processes. This work develops a bioinformatic framework based on local and global structure similarity for the characterization of E2-protein interactions in all 35 publicly available three-dimensional structures of estradiol-protein complexes. Subsequently, it uses gained data to identify four geometrically conserved estradiol binding residue motifs, against which the Protein Data Bank is queried. As result of this database query, 15 hits present in seven protein structures are found. Five of these structures do not contain E2 as ligand and had thus not been included in this work’s initial data set. One of these newly detected structures is structurally and functionally dissimilar, as well as evolutionarily distant from all other proteins analyzed in this work. Nevertheless, the ability of this protein to actually bind estradiol must be further analyzed. Finally, geometrically conserved E2-protein interactions are identified and a new research direction using these conserved interaction ensembles for the detection of novel estradiol targets is proposed.
Es besteht großer Entwicklungsbedarf von aussagekräftigen in vitro Testsystemen, die als Alternative zu Tierversuchen und für die Grundlagenforschung eingesetzt werden können. Im Fokus steht dabei unter anderem die Echtzeitcharakterisierung des Zellverhaltens. Bisher gibt es hinsichtlich der Echtzeitcharakterisierung kaum Produkte auf dem Markt. Eine Weiterentwicklung ist daher essentiell. In der vorliegenden Arbeit wurden erstmalig die pH-sensitiven Sensorpartikel (ein fluoreszenzbasiertes Messsystem aus einem pH-sensitiven Farbstoff und einem Referenzfarbstoff) der Firma „Surflay Nanotec GmbH“ auf ihre Eignung für die Echtzeitcharakterisierung in Zellkultursystemen getestet und bewertet. Dabei zeigte sich, dass es sich um ein zuverlässiges System handelt, welches reproduzierbare Werte liefert. Die Sensorpartikel sind photostabil und lassen sich durch unterschiedliche Fokusebenen nicht beeinflussen. Die Messung des pH-Wertes ist in einem Bereich von pH 4 bis pH 9 möglich. Innerhalb von Zellkultursystemen kann eine pH-Wert-Änderung, durch Stoffwechselprodukte verursacht, gemessen werden. Besonders hervorzuheben ist, dass eine lokale pH-Wert-Messung in Zell-nähe erfolgen kann. Damit hebt es sich von anderen Produkten ab.
Effekte von antibiotischen Gyrasehemmern auf die Topologie der mtDNA menschlicher Tumorzellen
(2017)
Das Antibiotikum Levofloxacin hemmt die Gyrase der Mitochondrien, was die Replikation der mtDNA an der supercoiled-Form zur Folge hat. Dadurch entstehen mtDNA-Catenate, welche bei der Teilung nur an ein Tochtermitochondrium weitergegeben werden können. Somit entstehen Zellen ohne mtDNA, sogenannte ρ0-Zellen. Mithilfe von Fluoreszenzmikroskopie, qPCR und Selektion soll diese These hier nachgewiesen werden.
Die dabei entstandenen Ergebnisse zeigen mikroskopisch Mitochondrien ohne mtDNA, sowie einen Rückgang des mtDNA-Gehalts durch die qPCR und das Sterben von vereinzelten Zellen unter Selektionsdruck durch fehlendes Pyruvat und Uridin. Bei den Levofloxacinkonzentrationen 400 μM und 600 μM konnten all diese Effekte nachgewiesen werden, wobei in Zellen, welche mit niedriger Konzentration behandelt wurden, die mtDNA noch vorhanden ist. Bei höheren Konzentrationen müssen letale und toxische Effekte beachtet werden. Somit können ρ0-Zellen mithilfe von Levofloxacin hergestellt werden.
Die Entstehung von Catenaten wurde indirekt an den Zellen der Konzentrationen 400 μM und 600 μM nachgewiesen, da Zellen, die ohne Levofloxacin weiter behandelt wurden, auch in Mangelmedium gewachsen sind. In diesen Zellen könnte die wieder aktivierte Gyrase die Catenate zerschnitten und entwunden haben, wodurch wieder eine funktionsfähige Atmungskette vorliegt.
Das menschliche Gesicht verrät nicht nur die Identität, das Geschlecht oder das aktuelle Befinden einer Person, sondern bietet darüber hinaus, Informationen über das Alter. Die automatische Altersschätzung von Gesichtsbildern extrahiert diese Informationen und klassifiziert diese, um eine Altersschätzung zu erzeugen. Gekoppelt mit einem Gesichtserkennungssystem kann die Leistung der Gesichtserkennung erhöht werden oder eine altersbasierte Zugangskontrolle eingerichtet werden, die nur Gesichtsbilder der Person benötigt. Ziel dieser Arbeit ist es die Leistung eines zur Verfügung gestellten Algorithmus zur automatischen Altersschätzung zu evaluieren. Die Prüfung enthält auch die Beobachtung von Einflüssen auf die Leistung des Algorithmus. Die Evaluierung wurde mit einer eigens erstellten, kontrollierten Testmenge durchgeführt, umein möglichst genaues Ergebnis zu erhalten.
Die Aminosäure Phenylalanin wird in vielen sekundären Stoffwechselwegen benötigt, so auch im Phenylpropanoid Stoffwechselweg. Feruloyl-CoA ist eines dieser Stoffe des Phenylpropanoid Stoffwechselwegs. Aus Feruloyl-CoA können unter anderem Cumarine und Suberin gebildet werden. Da beide Stoffe aus Feruloyl-CoA synthetisiert werden können wurden die Synthesewege dieser Stoffe auf Kompetitivität untersucht. Die Cumarinanalyse wurde an Nicotiana tabacum Zellkulturen und deren Medien mittels HPLC, Dünnschichtchromatographie und fotometrischen Messungen durchgeführt. Die Cumarine wurden über phenolische Extraktion aus den Zellen gewonnen, während die Cumarine aus den Medien durch Festphasenextraktion isoliert wurden. Suberin wurde an Arabidopsis thaliana Ökotyp Columbia und Arabidopsis thaliana Mutante Feruloyl-CoA 6’-hydroxylase, durch Anfärben des Suberins am Konfokalmikroskop untersucht. Arabidopsis thaliana und Nicotiana tabacum wurden auf eisenhaltigen und eisenmangel Medien kultiviert. Eine Erhöhte Bildung an Scopoletin und Scopolin konnte unter Eisenmangel nachgewiesen werden. Beide Organismen der Suberinanalyse wiesen eine unverändert starke Synthese auf, es wurden nur Änderungen im Suberinisierungsmuster beobachtet. Somit hat sich die Hypothese, dass es unter Eisenmangel zu einer geringeren Synthese von Suberin durch erhöhte Cumarinsynthese kommt, nicht bestätigt.
Die Überwachung sozialer Online-Netzwerke spielt eine zunehmend wichtige Rolle, um die polizeilichen Aufgaben hinsichtlich Kriminalprävention und Gefahrenabwehr auch im virtuellen Raum effektiv und effizient wahrnehmen zu können. Gleichzeitig machen das enorme Volumen und die Komplexität der Daten eine manuelle Bearbeitung nahezu unmöglich. Es müssen automatisierte Verfahren entwickelt werden, welche sogenannte Gefährder in sozialen Online-Netzwerken sicher erkennen können. Für die Entwicklung, das Training und die Evaluation von Modellen für das Maschinelle Lernen werden standardisierte Referenzdaten benötigt. Die vorliegende Arbeit beschäftigt sich mit der Entwicklung eines solchen Goldstandards mit Trainings- und Testdaten für Algorithmen zur Detektion von Gefährdern in sozialen Online-Netzwerken. Es werden Kriterien für die Auswahl relevanter Profile und Attribute erarbeitet und Anforderungen für die Strukturierung und Ablage der Daten formuliert. Weiterhin werden konkrete Profile und Feature-Kandidaten sowie ein XML-Schema und Dateilayout für die Bereitstellung der Daten des Goldstandards vorgeschlagen. Abschließend werden die Ergebnisse kritisch gewürdigt und ein Ausblick für zukünftige Arbeiten gegeben.
Die vorliegende Arbeit befasst sich mit dem Entwurf eines Labornetzgeräts, das zusätzlich zu der konventionellen analogen Steuerung über Drehregler, noch die Möglichkeit der digitalen Steuerung über Bluetooth und WIFI bietet. Durch Verwendung eines integrierten Akkus und die Möglichkeit das Netzgerät über Solarenergie zu betreiben, soll eine Vielzahl an Anwendungsfällen abgedeckt werden. Konkret werden potentielle Schaltungstopologien analysiert und Entwurfskriterien diskutiert. Diese Projektstudie soll einen Referenzwert über Möglichkeiten und Probleme eines solchen Labornetzgeräts bieten.
Die vorliegende Arbeit befasst sich mit der Entwicklung eines Streifentestsystems, mit einer integrierten Amplifikationsmethode und Read-out-System, zum Nachweis pathogener Bakterien in Wunden. Dabei wird als Amplifikationsmethode die Rekombinase-Polymerase-Amplifikation (RPA) unter Verwendung des TwistAmp® nfo Kits, der Firma TwistDX Ltd., gewählt. Zur Detektion sollen Milenia HybriDetect Streifentests, der Firma Milenia Biotec GmbH, verwendet werden, da diese mit dem TwistAmp® nfo Kit kombiniert werden können. Diese zwei Methoden sollen in die onsite.flow Kartusche, der Firma BiFlow Systems GmbH, eingebracht werden. Um dies zu realisieren, sollen thermographische Charakterisierungen mit der onsite.flow Kartusche durchgeführt werden. Wichtig ist dabei, vor allem die Temperatur bei 37° C, da die RPA hier ihr Optimum findet. Um dies zu testen, sollen zwei Regelungsarten der onsite.flow Kartusche untersucht werden. Zum einen die Regelung über die Stromstärke und zum anderen die Regelung über die Temperatur. Weiterhin soll die Nachregelung der Temperatur durch ein Offset untersucht werden und das Beheizen von Flüssigkeiten im Näpfchen mit der onsite.flow Kartusche. Zudem sollen mit dem TwistAmp® nfo Kit, mithilfe von Agarosegelen, erste Versuche unter verschiedenen Reaktionsbedingungen durchgeführt und in Hinblick auf eine quantitative Aussage, untersucht werden. Außerdem sollen die Milenia HybriDetect Streifentest auf verschiedene Bedingungen, die in der onsite.flow Kartusche vorliegen, im Reaktionsgefäß getestet werden. Anschließend soll die RPA im Näpfchen der onsite.flow Kartusche durchgeführt werden und mit den Streifentests das Amplifikationsprodukt detektiert werden. Zuletzt sollen der Streifentest und die Reaktionsbestandteile des TwistAmp® nfo Kits, in die onsite.flow Kartusche eingebracht werden.
Im Rahmen dieser Arbeit wurde ein Assay entwickelt, um den Biomarker TIMP-1 quantitativ nachzuweisen. Dafür wurden in einem ersten Schritt homogene und heterogene Immunoassays hinsichtlich ihrer Eignung zum Nachweis von Biomarkern in Urinproben untersucht. Die beiden homogenen Immunoassays SPARCL und AlphaLISA erwiesen sich als nicht geeignet. Inhibitoren aus dem Urin, wie zum Beispiel Ascorbinsäure, störten bei diesen Assays die Signalgebung. Für den heterogenen Immunoassay wurden drei verschiedene Strategien für die Immobilisierung des Fänger-Antikörpers auf Polystyrol entwickelt und ihre Effektivität verglichen. Bei der Immobilisierung des Antikörpers durch Adsorption an der Oberfläche zeigte der Assay die höchste Empfindlichkeit für den Biomarker TIMP-1. Diese Immobilisierungsstrategie wurde auf einen Mikrochip übertragen. Die quantitative Detektion verschiedener Biomarker-Konzentrationen auf dem Chip konnte realisiert werden. Um die Empfindlichkeit des Assays zu erhöhen, müssen das Chip-Design verändert und die Detektionsmethode optimiert werden.
In der vorliegenden Bachelorarbeit wird das Themengebiet der Entwicklung eines webbasierten Informationssystems und einem programmatischen Interfaces zur Integration von Sensorikdaten aus Pflanzenphänotypisierungsanlagen erörtert. Um dies zu ermöglichen, wurden mit der Modellierungssprache UML Konzepte erstellt. Dazu zählen das Gesamtsystemkonzept, das Webinformationssystemkonzept und das MockUp des Webinformationssystems (PhenoLIMS). Für die Realisierung von PhenoLIMS wurden Oracle Application Express, JavaScript und PL/SQL eingesetzt. Dabei fand Oracle Application Express für die Oberfläche, JavaScript für das Manipulieren von Elementen der Weboberfläche und PL/SQL für das Abfragen und das Herunterladen der Daten Anwendung. Der Download sollte als ISA-Tab genormte MIAPPE zur Verfügung stehen.
Das Ziel der vorliegenden Arbeit war es, ein für mittelständische und kleine Unternehmen geeignetes Format für die Versendung elektronischer Rechnungen zu finden, hierfür eine Softwarelösung zu entwickeln und diese in ein bestehendes Produkt zu integrieren. Nach gründlicher Analyse fiel die Entscheidung auf das ZUGFeRD-Format, für welches eine nun kommerziell vertriebene Komponente entwickelt wurde, die zusammen mit einem, im Rahmen der Arbeit entwickelten E-Mail-Client, in die Software HSC-AuftragPlus integriert wurde. Damit lassen sich ZUGFeRDRechnungen ohne Umwege oder externe Programme sowohl empfangen und importieren, als auch exportieren und versenden. Bei diesen Schritten erfolgt auch immer eine mehrstufige Validierung und entsprechendes Feedback an den Benutzer. Da die Bachelorarbeit auf betriebswirtschaftliche, juristische und informatische Aspekte eingeht, sollte sie insbesondere für Studierende der Informatik und Wirtschaftswissenschaften viele interessante Informationen enthalten
Die vorliegende Arbeit befasst sich mit Verfahren und Methoden zur Optimierung der Performanz und Bedienbarkeit von Filtervorgängen. Hauptaugenmerk liegt auf der Konzeption und Implementierung eines Prototyps für die Filterung von Artefakten mit inhomogenen Attributen. Dazu erfolgt die Anbindung an ein Indexsystem, die Erzeugung einer Filtersprache mit zugehöriger Grammatik sowie die Bereitstellung von Filtervorschlägen
Ziel der vorliegenden Arbeit war es, ein Qualitätssicherungssystem von Tierarzneimittel – Standardsubstanzen zu erstellen, indem die chromatographischen Eigenschaften der Wirkstoffe, die zur Überprüfung der Arzneimittelrückstände in Lebensmitteln dienen, erfasst und dokumentiert wurden. Der Bestand der internen Datenbank, die zum Untersuchungsspektrum der „Landesuntersuchungsanstalt für das Gesundheits- und Veterinärwesen“(LUA) Chemnitz gehören, umfasst derzeit 745 Wirkstoffe, hierbei konnten 437 Wirkstoffe in die Stabilitätsprüfung aufgenommen werden. Es wurden 103 Substanzen mittels GC-MS und 334 Wirkstoffe mittels HPLC-DAD erfasst und dokumentiert. Es wurde mittels einer Dreifachmessung ein geeignetes Verfahren zur Überprüfung der chromatographischen Eigenschaften und zur Kontrolle der Stabilität gefunden.
Ziel dieser Diplomarbeit ist es, eine geeignete mobile Messmethode für ein Motorenüberwachungssystem mit Erkennung und Ausgleichsroutine bei Motorlaständerungen zu finden. Zunächst werden Grundlagen und wichtige Kennwerte der Indiziermesstechnik erklärt. Danach folgt die Gegenüberstellung von zwei Messmethoden mit erweiterter Plausibilitätsüberprüfung der verwendeten Sensoren. Die Validierung aussagekräftiger Resultatwerte, soll als Grundlage für die Erweiterung des Softwareablaufs dienen. Die beiden letzten Kapitel befassen sich mit der Erweiterung des Softwareablaufs sowie einer Zusammenfassung mit Ausblick.
Is it possible today to provide proper education to children without the use of digital me-dia? This thesis aims to answer this question and to give a clear overview to the reader about the current situation of the upper school in Saxony.
Exemplary at both subjects informatics and history, the thesis looks at the currently used communication, technologies and the possibilities for further education. Furthermore, those methods are analyzed and compared to the actual ideal standards of media usage. The real prevailing state was determined due to a survey at the schools. Following this analysis, this thesis creates a concept with suggestions and guidelines for a further im-proving of the practiced teachings and their media usage
Blutspuren gehören zu den wichtigsten Beweismitteln in der Forensik. Über eine Blutspurenanalyse können beispielsweise Form, Anzahl und Größe von Blutrückständen analysiert und unter Berücksichtigung naturwissenschaftlicher Gesetzmäßigkeiten interpretiert werden. Diese Parameter lassen häufig Rückschlüsse auf die Art und Stärke einer Gewalteinwirkung zu, jedoch selten darauf wie alt eine Blutspur ist, beziehungsweise wann die Gewalteinwirkung stattgefunden hat. Methoden, die beispielweise auf RNA–Analyse oder der Spektroskopie beruhen, machen es sich zum Ziel dies festzustellen. Viele dieser Methoden sind jedoch invasiv, zerstören also zwangsläufig die Blutspur. Nicht invasive Strategien hingegen können mehrfach angewendet und deren Ergebnisse gemeinsam interpretiert werden, um eine möglichst genaue Abschätzung abgeben zu können. Dies erweist sich vor allem dann als Vorteil, wenn die Zahl der Blutspuren am Tatort limitiert ist. Die im Folgenden vorgestellte, nicht invasive Methode soll eine Option für eine möglichst akkurate Altersschätzung innerhalb eines kurzen Zeitraumes, nach Beginn der Trocknung darstellen, indem sie die bei der Trocknung des Bluttropfens entstandenen Risse in den festen Ablagerungen analysiert. Hierbei werden Bilder vom trocknenden Blutfleck in zeitlich bestimmten Abständen geschossen. Nach einer Reihe von Bildbearbeitungsprozessen, kann die Zahl der weißen Pixel, als Maß für die Größe der Trocknungsrisse, sowie die sich daraus ergebenden prozentualen Anstiege, gegen die Zeit in ein Koordinatensystem eingetragen und über Graphen dargestellt werden. In Zukunft könnten anhand dieser Graphen Funktionen approximiert werden, die eine Einordnung eines, in einem fest definierten Zeitraum ermittelten Anstiegs der Pixelzahl, der von einem weiteren Blutfleck erfasst wurde, zu einem bestimmten Zeitraum ermöglichen. Diese Arbeit soll einen grundlegenden Ablaufplan zur Erstellung von Versuchsreihen liefern, mithilfe derer eine Blutspur zeitlich abhängig auf morphologische Veränderungen, in Form von Trocknungsrissen, analysiert und für eine Altersschätzung weiterer Blutspuren, in Abhängigkeit der Umgebungsfaktoren, herangezogen werden kann.
Etablierung eines Verfahrens zur Herstellung von
Keratinhydrolysat aus Rinder- und Pferdehaaren
(2017)
Diese Arbeit beschäftigt sich mit der Etablierung eines Verfahrens zur Herstellung unterschiedlich stark abgebauter Keratinhydrolysate aus Rinder- und Pferdehaaren. Dafür wurden verschiedene aus der Literatur bekannte Extraktionsmethoden angewendet und deren Eignung unter Variation der Inkubationstemperatur, der Inkubationsdauer und der Konzentration der eingesetzten Chemikalien untersucht. Anschließend erfolgte eine gelelektrophoretische Charakterisierung der gewonnenen Hydrolysate. Weiterhin wurde eine Aminosäureanalyse sowie eine Bestimmung freier Thiolgruppen mittels Ellman’s Reagenz durchgeführt.
In dieser Arbeit geht es um sogenannte Orakel. Dies sind Anbieter die es ermöglichen, externe Daten in Smart Contracts der Ethereum Plattform, einzubinden. Im Zuge dieser Arbeit soll zunächst evaluiert werden, welche Orakel es derzeit schon gibt und wie diese Funktionieren. Es soll eine vergleichende Analyse durchgeführt werden, welche die Eigenschaften der verschiedenen Ansätze untersucht und bewertet. Wenn möglich sind alternative Ansätze zu erarbeiten.
Zum Abschluss ist ein Smart Contract zu programmieren, welcher entweder von einem selbst entwickelten oder einem existierenden Orakel zum Abfragen von externen Daten gebraucht macht.
Ziel dieser Diplomarbeit ist die experimentelle Untersuchung der optischen Freiraumübertragung (FSO) von Daten. Unter Verwendung von Protokollen der Kommunikationstechnik werden IEEE-Standards analysiert und die Anwendbarkeit für FSO überprüft. Ein geeigneter Standard wird dann verwendet, um eine experimentelle Datenübertragung mit Licht über den Freiraum durchzuführen.
Ziel der Diplomarbeit ist die Erstellung einer Software zum Auslesen und Aufbereiten von Fehlerdaten aus einer Datenbank einer Automatischen Optischen Inspektion (AOI). Des Weiteren sollen die Daten in Tabellenform und als Diagramm darstellbar und auch exportierbar sein.
Diese Arbeit befasst sich zunächst mit den Grundlagen von Java und Datenbanken sowie mit der Abfragesprache SQL. In den darauffolgenden Kapiteln werden die Anforderungen präzisiert und es wird näher auf die Installation der erforderlichen Komponenten sowie die Implementierung eingegangen. Im letzten Kapitel werden die Ergebnisse kurz zusammengefasst und ein Ausblick für Funktionserweiterungen wird dargestellt.
Diese Arbeit beinhaltet eine erste Strukturanalyse des neuen Apple File System. Es wurden die Datenträgerstrukturen eines APFS-Containers anhand mehrerer unter macOS "Sierra“ erstellten Images analysiert. Dabei wurde festgestellt, dassGrundzüge des Vorgänger-Dateisystems HFS+ auch bei APFS Anwendung finden, das neue System jedoch um einige Funktionalitäten verändert respektive erweitert wurde. Dazu zählen im Wesentlichen Snapshots, Copy-on-Write-Verfahren, Verschlüsselung und eine flexiblere Art der Partitionierung. Bezogen auf computerforensische Untersuchungen ist die Verschlüsselung der Nutzerdaten auf Apple-Computern eher als hinderlich zu betrachten. Die anderen Features werden dabei nach aktuellem Kenntnisstand keine oder leicht positive Auswirkungen haben.
Die vorliegende Arbeit beschäftigt sich mit der forensischen Datensicherung integrierter Schaltkreise. Das Ziel ist, eine Software zu entwickeln, die es ermöglicht die Daten zweier Schaltkreise durch die Nutzung eines Galep-5D Programmiergerätes in eine Binärdatei zu überführen. Bei den Schaltkreisen handelt es sich um einen seriellen EEPROM und einen eMMC NAND-Flash. Es wird ein Vorgehen erläutert, wie mit Hilfe der bereitgestellten Bibliotheken, die Datenextraktion des EEPROMs durch SPI und des eMMCs durch den eMMC-Standard, erfolgt. Aus dieser Arbeit geht hervor, dass sich die Schaltkreise korrekt auslesen lassen, aber die Datenrate zu gering ist, um dieses Verfahren praktikabel für die Datensicherung größerer Speicher zu nutzen. Dennoch
wird ein Grundbaustein für weitere Forschungen, in Bezug auf das Auslesen unbekannter Schaltkreise, gelegt.
Die vorliegende Arbeit beschäftigt sich mit der Untersuchung einer Schädelfraktur in einem archäologischen Fund. Es werden Hypothesen über die Ursache diskutiert und in Teilen experimentell überprüft. Aufgrund von zeitlichen Einschränkungen und fehlenden Materialien wurde eine andere Hypothese getestet, als ursprünglich vorgesehen: Es wurde versucht, die Krafteinwirkung eines Grabungswerkzeuges auf einen archäologischen Schädel durch Versuche mit künstlich "gealterten" Schweineschädeln nachzustellen. Da nur eine kleine Testgruppe an Schädeln zur Verfügung stand und keine originalen Werkzeuge verwendet wurden, konnten die Versuche die Hypothese nicht eindeutig belegen oder wiederlegen. Die in dieser Arbeit angestellten Überlegungen und Erfahrungen können aber als Grundlage für weiterführende Arbeiten dienen.
Innerhalb dieser Bachelorarbeit werden Adaptive Musik, unterschiedliche Techniken der Videospielmusik und Elemente der Musiktheorie vorgestellt. Um die adaptiven und klanglichen Fähigkeiten der unterschiedlichen Techniken, welche sich während der Entwicklung der Videospiele etabliert haben, aufzuzeigen, wird final eine Übersicht darüber erstellt.
Das Ziel der vorliegenden Bachelorarbeit ist es, die wichtigsten theoretischen Konzepte zum kreativen Lernen zu vergleichen und empirisch zu überprüfen. Dazu wurde in zwei Kita eine teilnehmende Beobachtung durchgeführt. Die Ergebnisse sollen herausfinden, in welcher Weise Animationsfilme Lernhilfen für Kinder darstellen. Folgende Schlussfolgerungen gehen jedoch nach der Auswertung der teilnehmenden Beobachtung über die theoretischen Annahmen hinaus: vbL in Kitas ist möglich, erweist sich im Alltag allerdings Schwierig, Animationsfilme oder digitale Medien sollten im Kita-alltag sparsam eingesetzt werden und vbL sollte nur genutzt werden, wenn Kinder dabei selbst aktiv werden können.
Bereits 1886 entdeckte der Kinderarzt Theodor Escherich ein neuartiges Bakterium, welches später den Namen Escherichia (E.) coli bekommt, im Darm von Kleinkindern. Im Laufe der Jahre fand man heraus, dass E. coli sowohl probiotische, als auch pathogene Eigenschaften haben kann. Pathogene E. coli können eine ganze Reihe gefährlicher Durchfallerkrankungen auslösen, was eine sichere Diagnose der Erreger notwendig macht. Die zuverlässigste Analysemethode ist die Polymerase-Ketten-Reaktion (PCR). Dabei können kleinste Mengen DNA vervielfältigt und anschließend analysiert werden. Ziel dieser Arbeit ist die Entwicklung und Validation einer Multiplex-PCR, um insgesamt sieben verschiedene pathogenen E. coli nachweisen und unterscheiden zu können
Die JavaScript-Bibliothek React ist inzwischen seit mehreren Jahren eine beliebte und weit verbreitete Technologie im Bereich der Frontend-Webentwicklung. In Kombination mit Redux ermöglicht React die Erstellung funktionaler Benutzeroberflächen selbst für komplexe Anwendungen. Es stellt sich die Frage, wie solche React-Anwendungen am besten zu testen sind. Zwei häufig genutzte Test-Frameworks für diesen Zweck sind Mocha und Jest. Diese werden in dieser Bachelorarbeit an Hand zuvor definierter Qualitätskriterien in mehreren Kategorien miteinander verglichen und so auf ihre Tauglichkeit für das Testen von React-Applikationen untersucht. Als Schwerpunkt der Gegenüberstellung wird eine Reihe von Tests mit beiden Frameworks für eine bereits bestehende App auf Basis von React und Redux implementiert. Am Ende steht die Beantwortung der Frage, welches der beiden Frameworks auf Grundlage der Untersuchungsergebnisse für das Testen von React-Anwendungen vorzuziehen ist.
Generierung von in silico Modellen zur Vorhersage der Bioverfügbarkeit potentieller Arzneistoffe
(2017)
Ziel dieser Arbeit ist es, eine essentielle Eigenschaft (die Bioverfügbarkeit) von Verbindungen zur Auswahl von neu synthetisierten Verbindungen, vorherzusagen. Dafür wird ein QSPR Modell erarbeitet, das die orale Bioverfügbarkeit vorhersagt. Es werden verschiedene Modelle erstellt, die auf unterschiedlichen Trainingsmethoden beruhen. Die Performance der Modelle wird durch den Korrelationskoeffizienten (R2) bewertet.
Im Rahmen dieser Arbeit wird die Herstellung, Evaluierung und in vitro-Charakterisierung Luciferase-exprimierender Candida albicans-Stämme gezeigt, welche in einem späteren Brandwundeninfektionsmodell an Ratten eingesetzt werden, um den Infektionsverlauf nach Applikation von Candida albicans in vivo zu untersuchen.
Brassica oleracea like all crucifers plants have a defense mechanism against natural enemies, which are chemical compounds formed form the enzymatic degradation of glucosinolates. In the presence of epithiospecifier proteins (ESP), the hydrolysis of glucosinolates will form epithionitriles or nitriles depending on the glucosinolate structure, This research proved that three predicted sequences (ESP) taken from NCBI database has a role in the enzymatic hydrolysis of glucosinolates in Brassica oleracea.
Obesity is a major public health issue in many countries and its development leads to many severe conditions. Adipose tissue (AT) simply called fat, in males visceral adipose tissues (VAT) are dominant. Estrogens play an important role in many pathological processes.
In this study, one of the subtypes of the estrogen receptor ER-beta is activated using KB (Specific ligand) treatment on VAT.
In this study, I investigated the metabolism effectof KB treatment on VAT using bioinformatics methods.
In this thesis study, I applied several bioinformatics methods such as differential expression gene analysis, pathway analysis, RNA splicing analysis and SNPs callings to make the prediction of the effect of KB treatment on VAT. A list of candidate genes, pathways and SNPs were identified in this study, which could provide some clues to reveal the genetic mechanism underlying the KB treatment effect. The results of my study show that the KB treatment on VAT has caused significant effect.
Implementierung einer Schrifterkennung auf Basis Neuronaler Netze am Beispiel einer IBAN-Erkennung
(2017)
Inhalt dieser Arbeit ist die Entwicklung einer Software zur Schrifterkennung, basierend auf Neuronalen Netzen. Dies soll am Beispiel einer IBAN-Erkennung skizziert werden.
Hierfür werden zuerst grundlegende Konzepte (künstlicher) Neuronaler Netze sowie der für die Zeichen-Extraktion notwendigen Bildvorverarbeitung besprochen.
Die Implementierung des Neuronalen Netzes erfolgt auf Basis eines speziellen Frameworks, zum direkten Vergleich wird auch eine (rudimentär funktionale) Eigenentwicklung vorgestellt.
Entsprechende Tests und Messungen zeigen Stärken und Schwächen der umgesetzten Lösung und liefern somit Aufschluss darüber, welches Potential für eine weitere Behandlung der Thematik besteht.
AVL entwickelt aktuell einen neuen Ladungsverstärker, der sich von Vorgängermodellen dadurch unterscheidet, dass zusätzlich zur Ausgabe der verstärkten und gefilterten Signale auch deren Digitalisierung und Verarbeitung in einem Signalprozessor vorgesehen sind. Für diese Hardware soll im Signalprozessor ein intelligenter Algorithmus zur Driftregelung als auch eine Ermittlung und statistische Bewertung der Signalspitzenwerte konzipiert und als Firmwarekomponenten umgesetzt werden. Aufgrund seines Aufbaus benötigt ein Ladungsverstärker eine permanente Kompensation der auftretenden Drifteffekte, um den Signalnullpunkt stabil zu halten. Solche Drifterscheinungen kommen sowohl durch die nicht idealen Komponenten, zu geringe Isolation der Signalwege als auch durch diverse Effekte der verwendeten Quarzdruckaufnehmer zustande. Durch Analyse des digitalisierten Messsignals soll laufend die Nullpunktsdrift ermittelt und durch Abgabe einer Korrekturspannung an einen DAC, aus der wiederum ein Kompensationsstrom für den Ladungs-/Spannungskonverter erzeugt wird, vollständig ausgeregelt werden. Die für die Driftregelung erforderliche Signalanalyse, soll gleichzeitig auch dazu verwendet werden, laufend den Spitzenwert des Signals zu ermitteln und diesen einer von 5 Klassen zuzuordnen und die Häufigkeiten in den Klassen zu kumulieren. Auf diese Weise kann dem Anwender ein Maß für die vom Sensor wahrgenommene Belastung, übermittelt, und somit ein Kriterium zur Entscheidung für einen eventuellen Sensoraustausch geboten werden.
Kategorisierung der Malware
(2017)
Diese Bachelorarbeit beschäftigt sich mit der Kategorisierung der Malware. Dabei werden verschiedene, vorhandene Konzepte vorgestellt sowie ein Eigenkonzept in Hinblick auf die deutsche Gesetzgebung entwickelt. Die Vorstellung von anderen Kategorisierungsmodellen gibt einen kurzen Einblick in das umfassende Thema der Malware-Kategorisierung. Es gibt viele unterschiedliche Konzepte zur Kategorisierung der Malware, jedoch war der Fokus bisher immer auf spezifische Komponenten der Malware selbst gerichtet. Im vorgestellten Eigenonzept zur Kategorisierung der Malware liegt der Fokus auf dem Payload und der Rückkopplung der einzelnen Malware-Typen. Dieses neu geschaffene Kategorisierungsmodell ermöglicht einen anderen Blickwinkel zum Kategorisieren von Schadsoftware, da sich dieses Modell mit den Wirkprinzipien beschäftigt und dabei rechtliche Aspekte mit einbezieht. Mit allgemeinen Definitionen der einzelnen Typen der Malware kann anhand ihrer speziellen Charakteristiken ein grober Überblick über existierende Computerschädlinge geschaffen werden. Um schließlich einen Bezug zur derzeitigen Gesetzgebung herzustellen, werden relevante Gesetze vorgestellt sowie mögliche rechtliche Lücken aufgezeigt.
Die vorliegende Bachelorarbeit befasst sich mit dem Begriff Environmental Storytelling. Dabei war es das Ziel eine Definition für die Elemente in Environmental Storytelling aufzustellen und diese zu katalogisieren, sodass diese zukünftig in den Prozess des Level Designs einfließen können. Die Elemente wurden anhand einer kleinen Auswahl an Spielen exemplarisch getestet. Die Bachelorarbeit soll den Menschen helfen, die Narration in das Level Design einbringen wollen. Der Verfasser erhofft sich am Ende einen Katalog anzutreffenden Elementen erstellt zu haben.
Konfiguration IT-forensischer Untersuchungspläne mittels wiederverwendbarer Methodenbausteine
(2017)
Das Ziel der vorliegenden Bachelorarbeit war es, die in meinem hochschulinternen Praxisprojekt, eingereicht am 12.05.2017, generierten Bausteine zur automatischen Erstellung von IT-forensischen Untersuchungsplänen zu verbessern und weiterzuentwickeln, um so eine höhere Abdeckung von Fällen zu erreichen. Dazu wurde Literatur gesichtet und ein Interview mit Herrn Alexander Sigel, DigiTrace GmbH Köln, geführt. Das Praxisprojekt wurde ebenfalls von Herrn Sigel betreut.
In dieser Arbeit konnten erfolgreich neue Bausteine konfiguriert und bereits vorhandene Attribute von bestehenden Bausteinen sinnvoll erweitert werden. Die automatisch generierten Untersuchungspläne, ausgehend von diesen Bausteinen, können als Gedankenstütze oder Checkliste dienen und Fehler während der Untersuchung oder während der Erstellung des Untersuchungsplans minimieren. Durch die zielgerichtete Abfrage nach bestimmen Untersuchungszielen auf bestimmten zu untersuchenden IT-forensischen Geräten, Objekten, auf denen ein bestimmtes Betriebssystem installiert ist, können die ausgegebenen Untersuchungsschritte gezielt an den Untersuchungsauftrag angepasst werden.
Die Bachelorarbeit ist sowohl für Studierende als auch für selbstständige oder angestellte IT-Forensiker interessant, die im Zuge ihrer Arbeit Untersuchungspläne erstellen, um die Untersuchung systematisch zu gestalten.
In der vorliegenden Arbeit soll ein Lösungskonzept für Regressionstests des Softwareprodukts robotron*ecount entstehen. Ziel ist die Ermöglichung eines effizienten und wirtschaftlichen Regressionstests mithilfe der Testautomatisierung. Zunächst wird ein universeller Testprozess definiert. Des Weiteren erfolgt eine Untersuchung von technischen und logischen Konzepten sowie Werkzeugen bezüglich der Testautomatisierung wie z. B. Formen der Testfalldarstellung und Testmetriken. Außerdem wird die Struktur und Arbeitsweise des Testobjekts robotron*ecount analysiert. Die gewonnenen Erkenntnisse werden anschließend bei der Gestaltung des Lösungskonzepts angewendet.
Die vorliegende Arbeit hat die Erstellung eines Konzeptes und die prototypische Umsetzung von Maßnahmen zur Verbesserung der Client-Sicherheit mit EOL-Betriebssystemen zum Ziel. Die Erstellung des Konzeptes basiert auf dem Beispiel der Tirol Kliniken GmbH. Im theoretischen Teil werden die Grundlagen zur IT-Sicherheit und das Gefahrenpotential betrachtet. Im praktischen Teil wird ein allgemeines Konzept ausgearbeitet, mit Hilfe dessen analysiert werden kann, inwiefern die EOL-Clients im Unternehmen geschützt sind und ob es weiterer Maßnahmen bedarf. Dies wird am Beispiel der Tirol Kliniken, mit besonderem Fokus auf McAfee Application Control, dargestellt.
Diese Arbeit beschäftigt sich mit der Analyse und Evaluierung ausgewählter Tools, im Bereich des IT-Monitorings, sowie der Bewertung der unterschiedlichen Lösungen, unter Berücksichtigung der Anforderungen im Unternehmen. Dazu gehört im Anschluss ebenfalls die Erarbeitung eines Implementierungskonzepts für den Echtbetrieb.
Die vorliegende Arbeit befasst sich mit der Konzeption und Planung einer web-basierten und teilweise automatisierten Serviceplattform zur Erfassung und Durchführung von Serviceaufträgen einer Servicestelle für Musikinstrumente. Das Hauptziel ist, dass diese Serviceinformationen auch dem Kunden selbst zur Verfügung gestellt werden und Ihm eine Kommunikation zur Servicestelle ermöglicht wird. Um diese Sessionbezogenen Zugriffe zu beschränken, soll ein System entwickelt werden, das sowohl die Verwendbarkeit als auch die Sicherheit der Datenweitergabe bedenkt. Zusätzlich soll durch die Funktionalität für die Firma die Zusammenarbeit zwischen der örtlich getrennten Serviceannahme und Servicedurchführung verbessert werden. Die Schaffung dieser Serviceplattform erfolgt zusammen mit der Neuerstellung eines modernen Webauftrittes.
Die vorliegende Diplomarbeit beschreibt den Entwurf und die Umsetzung einer ticketgestützten Bearbeitung des Prozesses „Neuer Mitarbeiter“ an der Hoch-schule Mittweida mit dem Ticketsystem KIX. Dazu wird der IST-Zustand doku-mentiert und analysiert. Auf Basis einer Schwachstellenanalyse wird ein SOLL-Konzept entwickelt und mit dem IST-Zustand verglichen. Abschließend wird das SOLL-Konzept des Prozesses „Neuer Mitarbeiter“ mit Hilfe des Prozess-management-Moduls im Ticketsystem KIX implementiert und die Ergebnisse betrachtet.
Konzeptionierung eines embedded Device zur
Aufzeichnung von Datenverkehr in Drahtlosnetzwerken
(2017)
In der vorliegenden Bachelorarbeit wird eine Methodik vorgestellt, den Datenverkehr in Draht-losnetzwerken mithilfe eines embedded Device aufzuzeichnen. Zu herkömmlichen, kommer-ziellen Produkten wird hier, basierend auf den von „Espressif“ entwickelten ESP32, eine kos-tengünstige Alternative dargestellt. Der aufgezeichnete Netzwerkverkehr kann innerhalb des Programmablaufs gefiltert, sowie anschließend auf einer SD-Karte gesichert werden. Der in dieser Arbeit aufgezeigte Schaltplan ist, wie auch der Programmablauf, auf den jeweiligen Einsatz modifizierbar. Aufgrund der geringen Größe von etwa 52mm x 27mm x 13mm ist das embedded Device für den mobilen Einsatz prädestiniert. Die Performance des Geräts und der verwendeten SD-Karte werden jeweils in einem Benchmark veranschaulicht. Aufgrund der Geschwindigkeit von 0,005284 Mbps kann ein lückenloses Aufzeichnen von drahtlosen Netzwerkverkehr zwar nicht gewährleistet, jedoch im Ausblick alternative Einsatzgebiete vorgeschlagen werden.
Diese Arbeit untersucht den Einfluss westlicher und japanischer Kultur auf die Videospielindustrie. Dabei reduziert sie sich auf einen gewissen Kulturbegriff und schafft mithilfe dessen ein aktuelles und neutrales Bild der Stereotypen beider Kulturen. Eine analytische Betrachtung am praktischen Beispiel einiger Videospiele, gibt dabei Aufschluss über unterschiedliche Konzepte, die durch das bestehen von Kulturen geprägt wurden. Auf Grundlage der quantitativen Umfrage werden gewisse Neigungen und Präferenzen der westliche Audienz untersucht und analysiert und mit den theoretischen, sowie analytischen Ansätze verglichen und in Relation gesetzt. Das Ergebnis zeigt, dass kulturelle Wertmuster im Zuge der Globalisierung einander annähern und die Grenzen der eindeutigen Identifikation zunehmend verschwimmen
In dieser Arbeit wurde mittels grafischer Bildanalyse die Fließrichtung deutscher Oberflächengewässer bestimmt. Die Bestimmung beruht auf der einfachen Logik, dass jede Quelle in einem Einzugsgebiet, zu einem eindeutigen Gebietsausfluss führt. Dazu wurde ein Java Programm geschrieben, welches in ImageJ eingebunden wurde und als Plug-in fungiert. Mit dem Programm ist es möglich, für jede geografisch erfasste Flusskoordinate die Quell- und Senkenentfernung zu erhalten, die Anzahl an Verzweigungen zu bestimmen sowie die Koordinaten des gesamten oder wahlweise in km abgestuften Oberlaufs an Zielkoordinaten zu erfassen. Das Programm wurde genutzt, um für Makrozoobenthos-Messstellen die Landnutzung im Oberlauf 100 m rechter- und linkerhand des Zielflusses zu berechnen, um daraus Rückschlüsse auf mögliche Eintragspfade von Pflanzenschutzmitteln zu ziehen. Desweiterem wurden aus dem deutschlandweiten Datensatz von knapp 21.000 Messstellen weitgehend naturbelassene Flussabschnitte selektiert, welche als Referenzgewässer fungieren.
Die vorliegende Bachelorarbeit setzt sich mit der Fragestellung auseinander, ob langfristige Verhaltensveränderung durch Gamification erreicht werden kann. Dazu werden in dieser Arbeit die erfolgreiche Implementation von Gamification, die Faktoren der Langzeitbindung in Spielen und die verhaltensbeeinflussenden Methodiken der Verhaltenstherapie untersucht. Die erarbeiteten Faktoren der verschiedenen Bereiche werden abschließend auf Schnittmengen überprüft und zu einem theoretischen Modell zusammengefügt.
Die vorliegende Arbeit befasst sich mit der Analyse von Videos mit Kinder- und Jugendschauspielern, die durch die Forensik-Analyse-Software X-Ways Forensics gecarvt und gefiltert und von dem Gesichtserkennungsprogramm SHORE des Fraunhofer Instituts für Integrierte Schaltungen bezüglich Alter und Geschlecht analysiert werden. Die Biometrische Unterscheidung des Alters ist besonders bei der Erkennung und Differenzierung zwischen legaler Erwachsenenpornographie und inkriminierter Kinder- sowie Jugendpornografie entscheidend. Die Ergebnisse werden unter verfahrensechten Umständen getestet und auf Gerichtsverwertbarkeit geprüft. Um Vergleiche mit ähnlichen Produkten und der manuellen Arbeit eines erfahrenen Ermittlers zu erstellen, werden Testdaten mit bekannten Parametern eingespeist und bezüglich Treffer- und Fehlergenauigkeit sowie Dauer verglichen.
Maskenentwurf parametrisierbarer optoelektronischer Bauelemente einschließlich Entwurfsregelprüfung
(2017)
In diesem Projekt wird die Erstellung eines Satzes lithographischer Masken für die Halbleiterbearbeitung behandelt. Als Basis dient ein gut verstandenes Bauelement aus dem Bereich der Optoelektronik, eine Fotodiode. Diese wird im Rahmen des Diplomprojektes parametrisierbar entwickelt und entworfen sowie programmiert. Der Entwurf wird dann auf der Grundlage zu definierender Regeln einer Entwurfsregelprüfung unterzogen. Ziel dieser Arbeit ist es, die technologischen sowie funktionalen Regeln im Programm abzubilden.
Mixed Reality in Games
(2017)
In der vorliegenden Bachelorarbeit sollen Grenzen und Unterschiede der verschiedenen Bereiche der Mixed Reality aufgezeigt werden. Bei der Betrachtung werden die Bereiche Games und Game Design besonders betrachtet. Dabei wurden verschiedene Mixed Reality Anwendungen untersucht und klassifiziert. Diese Ergebnisse wurden verwendet, um ein Konzept für ein Spiel für Mixed Reality Geräte zu entwickeln.
Diese Arbeit ist sowohl für Studierende im Bereich Games als auch für Lehrkräfte in diesem Feld relevant. Für die Zusammenstellung der Arbeit wurden bereits vorhandene Schriftstücke über Mixed Reality und Games verwendet und zu einem Großteil theoretisch verarbeitet. Zum Abschluss der Arbeit wird ein Videospielkonzept für Mixed Reality vorgestellt.
Viele soziale Netzwerke gewähren oft keine Transparenz, wenn die Rede von Algorithmen ist. Es scheint nur ein sehr begrenztes Verständnis zu geben, wie die Algorithmen von sozialen Netzwerken arbeiten. Ausnahmslos wäre ein solches Verständnis für die IT-Forensik von großer Bedeutung. Demnach ist das Ziel dieser Arbeit die Entwicklung eines mathematisches Modells, welches den people you may know-Algorithmus von Facebook beschreiben könnte. Da nur wenig
Literatur zu dieser Thematik existiert, wurde der Algorithmus empirisch untersucht. Es wurde ein Botnetzwerk geschaffen, bestehend aus elf Facebook-Profilen, denen unterschiedliche Aufgaben zugeteilt wurden. Die Freundschaftsvorschläge der Bots wurden mit Hilfe eines Web Crawlers extrahiert und im Anschluss ausgewertet. Aus der Analyse der Datensätze ging hervor, dass das Erzeugen eines Freundschaftvorschlages zwischen Bots durch eine Anzahl unterschiedlicher Parametern möglich ist. Im mathematischen Modell wurde Bezug auf die Parameter genommen und für jeden dieser eine Gewichtung zugeteilt, um ihre Relevanz zum Generieren eines Freundschaftvorschlages zwischen zwei Profilen darzustellen. Welche Parameter verwendet wurden und wie die Gewichtungen dieser ausgefallen sind, wird ausführlich in dieser Arbeit erläutert.
Modularität in 3D-Videospielumgebungen und Techniken zur Verwendung und Minimierung der Nachteile
(2017)
Diese Arbeit thematisiert die Vorteile und Nachteile der Verwendung von modularen Asset-Sets sowie den Arbeitsablauf bei der Erstellung dieser in einer Echtzeit-3D-Umgebung. Am Ende sollen der Produktionsaufwand der Assets sowie die zu erwartende Performance besser eingeschätzt werden können. Zudem soll der Leser Zugriff auf Techniken erhalten, mit denen sich die Nachteile durch die Verwendung von modularen Assets minimieren lassen.
In dieser Bachelorarbeit wird die steigende Nutzung von computerbasierten Animationstechniken und ihre Auswirkungen auf die Popularität von handgezeichneten Animationen und Stop-Motion-Filmen analysiert und kritisch hinterfragt. Unter Animation sei in diesem Fall ein Bewegtbild in Form eines Films, einer Fernsehserie oder eines auf sonstige Weise verbreiteten Videos zu verstehen, welches ausschließlich unter Verwendung von Computern, Puppentrick oder gezeichneten Bildinhalten erstellt wurde. Animierte Elemente in Realfilmen sollen nicht berücksichtigt werden. So sind in Filmen, wie JASON AND THE ARGONAUTS (R.: Don Chaffey. USA 1963) oder AVATAR (R.: James Cameron. USA 2009), zwar animierte Elemente enthalten, jedoch dienen diese lediglich als Werkzeug zur Erweiterung der filmisch darstellbaren Realität. Diese Werke sind somit nicht als Animationsfilme kategorisiert und werden in dieser Arbeit nicht grundlegend behandelt. Jegliche Erwähnung dieser Art steht im direkten Zusammenhang zu ihrer Auswirkung auf die zugrunde liegende Animationsform. In dieser Arbeit wird erläutert, in welchem Maße das computergenerierte Bewegtbild in der Populärkultur eine Vorrangstellung einnimmt und welche geschichtlichen Hintergründe dazu führten. Dazu wird Zeichentrick vor allem auf seinen Kostenaufwand, die allgemeine Produktionsdauer, die benötigte Arbeiterschaft und seine Popularität in der Bevölkerung hin untersucht. All dies geschieht im Vergleich zu Computeranimation. Außerdem wird versucht, anhand globaler Vergleiche Lösungsansätze zu finden, mit deren Hilfe die Marktfähigkeit von 2D- und Stop-Motion-Animationsfilmen zukünftig gewährleistet bleiben kann. Das Thema lässt sich im Fachbereich Medien einordnen. Besonders Interessenten der Animationsfilmherstellung und Medienstudenten soll diese Abhandlung nützliche und wissenswerte Sachverhalte über die zugrunde liegende Kontroverse näherbringen.
Es wurde zum einen ein IgG-ELISA zum spezifischen Nachweis von Anti-Dengue-Antikörpern in humanen Seren entwickelt und optimiert mit dem Schwerpunkt einer besseren Spezifität im Vergleich zu bereits auf dem Markt befindlichen ELISA-Tests. Zum anderen wurde eine real-time-PCR zum Nachweis von Dengueviren in humanen Seren mit gleichzeitiger Serotypenbestimmung entwickelt und optimiert
Die vorliegende Arbeit befasst sich mit den Herausforderungen, die bei der Verwendung von Photogrammetrie für Computerspiele entstehen. Ziel der Arbeit ist es, die Lösungsmöglichkeiten für diese Probleme zu ergründen und ihre Vor- und Nachteile zu beleuchten. Die Erkenntnisse werden am Ende der Arbeit in einem Leitfaden zusammengefasst, der den richtigen Umgang mit der Technik beschreibt.
Diese Arbeit behandelt die phylogenetische und phylogenomische Analyse der Schlauchpilz-Ordnung Saccharomycetales. In diesem Rahmen wurden über Hundert zugehörige Spezies auf ihre Phylogenese mithilfe von diversen modernen Verfahren und Implementierungen untersucht. Die Basis für die quantitativ umfangreichen Analysen bildeten ausgewählte Genom-Sequenzierungen und davon abgeleitete Gen- und Protein-Sequenzen. Diese Abhandlung setzt eigene Ergebnisse darüber hinaus in einen umfassenden wissenschaftsgeschichtlichen Kontext und zeigt Parallelen, wichtige Fragen und Probleme hierzu auf.
Die vorliegende Bachelorarbeit handelt von den Nutzungsmöglichkeiten des von der Walt Disney Company entwickelten Systems zur Texturierung von 3D-Modellen: "Ptex". In der Arbeit wird Ptex mit UV-basiertem Texture Mapping verglichen, besonders unter der Prämisse der Entwicklung von Videospielen und dem damit einhergehenden Workflow. Am Ende der Arbeit wird besonders auf die Stärken und Schwächen der unterschiedlichen Texturierungsmöglichkeiten eingegangen.
In dieser Thesis wird das Konzept des Software Defined Networkings (SDN) und den daraus resultierenden Möglichkeiten näher betrachtet. Auf dieser Grundlage wird beschrieben wie mit Hilfe einer SDN Umgebung eine kritische Infrastruktur abgesichert werden kann. Hierzu wird eine Mikrosegmentierung mit VMware NSX und auf Basis des VXLAN Protokoll realisiert. In weiterer Ausbaustufe werden zwei Rechenzentren zu einer hybriden Cloud zusammengeschlossen und demonstriert wie Layer 2 Datenverkehr zwischen beiden Rechenzentren transparent übertragen und dadurch die Sicherheit für solch ein Szenario erhöht wird. Darauf folgt ein Vergleich mit einer vergleichbaren Netzwerkumgebung, mit abschließender Beurteilung des Sicherheitsniveaus der implementierten Infrastruktur.
Internet- und Computerkriminalität rücken aufgrund steigender Fallzahlen immer mehr in den Fokus der strafrechtlichen Verfolgung. Diese Bachelorarbeit befasst sich mit den Vorschriften 202a-d StGB, um den rechtlichen Schutz von Internet- bzw. Computernutzern darzustellen. Hierzu werden die Begriffe Internet- und Computerkriminalität definiert und es wird auf die historische Entwicklung im Bereich der Informationssicherheit eingegangen. Jede Norm wird inhaltlich detailliert betrachtet, indem der Wortlaut der Norm, die systematische, teleologische und ergänzend die historische Auslegung erarbeitet werden. Ziel der vorliegenden Arbeit ist Schaffung eines Überblicks über die genannten Vorschriften. Außerdem soll geklärt werden, ob ein ausreichender strafrechtlicher Schutz von Internet- und Computernutzern gegeben ist oder ob gewisse Strafbarkeitslücken in diesem Zusammenhang existieren. Zur Analyse zog die Verfasserin Fachartikel, Bundestags-Drucksachen, das Strafgesetzbuch sowie Informationen aus dem Internet heran
Die vorliegende Bachelorarbeit zeigt anhand von durchgeführten Untersuchungen auf, welche allgemeinen Marketingmanagement Konzepte auf die deutsche Spieleindustrie angewandt werden können. Es werden allgemeine theoretische Ansätze eines klassischen Planungsprozesses einer Marketing Konzeption dargelegt, welche mittels Literaturrecherche erarbeitet wurden. Die Anwendbarkeit dieser Konzepte auf die deutsche Spieleindustrie wurde in einem methodischen Teil, durch qualitative Experteninterviews mit langjährigen Branchenanhängern, geprüft.
Das Ziel der Bachelorarbeit ist es, das Thema Farbsehstörungen mit Fokus auf Rot-Grün-Sehschwäche und deren Berücksichtigung in Gesellschaftsspielen zu untersuchen. In diesem Rahmen wird ein Handout zum Thema Farbsehstörung sowie Farbkombinationen, die für Menschen mit einer Rot-Grün-Sehschwäche und -Blindheit geeignet sind, erstellt. Die Bachelorarbeit ist für betroffene Menschen, Spieleverlage sowie Interessierte gedacht. Anfangs werden die Themengebiete Farbsehstörung sowie Gesellschaftsspiele theoretisch untersucht um anschließend Farbkombinationen heraus-zuarbeiten, die für Betroffene gut unterscheidbar sind. Diese werden innerhalb einer Umfrage mit 307 Teilnehmern bewertet und in das Handout eingearbeitet. Die Autorin erhofft sich mit dem Handout Spieleverlage zu diesem Thema zu sensibilisieren
Im Rahmen der Arbeit wird ein Überblick über aktuelle Verfahren der Sentimentanalyse gegeben, welche sich besonders für die Analyse von Nutzerdaten in sozialen Netzwerken eignen und auch auf die deutsche Sprache ausgerichtet sind bzw. auf diese übertragen werden können. Darüber hinaus sollen forensische Anwendungsgebiete der Sentimentanalyse aufgezeigt und diskutiert werden.
Das Smartphone ist im Laufe seiner Entwicklung zu einem ständigen Begleiter des modernen Menschen avanciert. Besonders der Marktführer, das mit Android betriebene Mobilgerät, ist weit verbreitet, allerdings aufgrund von nicht geschlossenen Sicherheitslecks für Malware anfällig, sodass zahlreiche Arten an Android-Viren existieren. Die Analyse dieser ermöglicht die Klassifikation, Abwehr und Bekämpfung solcher Angriffe. Die Kombination aus einem Webserver und mehreren Wandboards, einer Mikrocontroller-Entwicklungsplattform, bietet zusätzlich die Möglichkeit, das Analysieren zur Laufzeit durchzuführen. Im aktuellen Zustand des geplanten Projektes wäre es allerdings nötig, bei jedem Wechsel der Android-Version oder -Malware die
bootfähige Speicherkarte des Wandboards auszutauschen. Dieser zeitlich und materiell aufwändige Vorgang kann durch die Konfiguration des Wandboards, das heißt seiner Hard- und Software, für den Boot der Android-Abbilder mit den zu analysierenden Viren über das Netzwerk optimiert werden. Die vorgestellte Methodik nutzt das Protokoll Preboot Execution Environment, um die Android-Systemdateien über einen TFTP- und einen NFS-Server zu laden. Die SD-Karte wird ausschließlich für den verwendeten Bootloader U-Boot eingesetzt. Um die auf den Servern eingerichteten Daten herzustellen, wurden zwei Ansätze, die Kompilierung des Android-Quellcodes und die Generierung aus den vorinstallierten SD-Karten-Images, entwickelt. Das Vorgehen zur Konfiguration der Server und des Bootloaders ist als Anleitung in die methodische Darstellung eingearbeitet. Mit Abschluss der Einrichtung zum Netzwerkstart konnte Android erfolgreich auf dem Wandboard über das lokale Netz gestartet werden. Die nunmehr mit weniger Aufwand durchführbaren Wechsel von Systemversionen ermöglichen die Realisierung eines Services zur Android-Malware-Analyse zur Laufzeit, der die zeitnahe und sichere Klassifikation und Bekämpfung von Viren auf Mobilgeräten möglich macht.
This thesis proposes a solution to the practical problem of supervising relatively basic mechanic processes in robotics by means of computervision. Supervision happens by comparing the tracked movement with a known, ideal recording of the movement that acts as a model.
First, this thesis analyzes possible approaches to the problem regarding data structures and representation, ways of extracting the data from the recording and ways to compare the data sets of two recordings. Then, a specific solution is implemented in C++ and explained.
Im Rahmen dieser Arbeit werden existierende Taxonomien und Ergebnisse weiterer wissenschaftlicher Arbeiten, welche sich mit der Aufnahme und Verarbeitung auditiver Reize, sowie möglichen Reaktionen auf diese, beschäftigen, miteinander verknüpft. Zudem werden die Erfahrung eines Videospiels im Spieler, die dafür von ihm benötigten, mentalen Fähigkeiten, als auch Funktionen von Audio hinsichtlich der Anwendung in der Mensch-Maschine-Interaktion, zu besagten Kategorisierungen in Relation gesetzt, um eine Kategorisierung zu erschließen, welche bei der Arbeit mit auditiven Reizen angewandt werden kann. Das Ziel hierbei ist das Streben nach einer idealen Erfahrung im Spieler eines Videospiels zu unterstützen, sowie das Schaffen eines vollständigen Leitfadens zum Sound Design von Videospielen weiter voranzutreiben
Die vorliegende Bachelorarbeit gibt einen Einblick in das Lernverhalten mit mobilen Endgeräten von Studierenden. Ziel der Arbeit war es herauszufinden, wie, wann und wo Studierende (mobil) lernen, welche Medien sie zur Vorbereitung auf Tests und Prüfungen nutzen, woher sie ihre Lerninhalte beziehen und welche Rolle Videos beim Lernen spielen. Für die Beantwortung dieser Fragen wurde ein Fragebogen mit der Überschrift Lernen im studentischen Kontext erstellt und von Studierenden der Hochschule Mittweida und der TU Chemnitz ausgefüllt. Herausgekommen ist, dass Studierende zeitnah zur Prüfung lernen; seltener jedoch auf mobile sondern vielmehr auf analoge Medien zurückgreifen. Auch die Ortsunabhängigkeit, die laut Definition ein wichtiger Bestandteil des mobilen Lernens darstellt, wird durch das Lernen im vertrauten Umfeld (d.h. zu Hause) in Frage gestellt. Mobile Geräte werden zwar zum Lernen eingesetzt, jedoch hauptsächlich um auf digitale (Lern-)Inhalte zuzugreifen bzw. sich mit Kommilitonen in sozialen Medien auszutauschen.
Die vorliegende Bachelorarbeit hatte zum Ziel, die auf der Kläranlage Schönerlinde bestehende Aktivkohleanlage zur Reinigung schwefelwasserstoffbelasteter Abluft zu optimieren. Dafür wurden sechs Aktivkohlen, mit unterschiedlichen Eigenschaften, in einer Versuchsanlage getestet. Es konnten drei unimprägnierte, zwei imprägnierte und eine dotierte Aktivkohle für die Experimente ausgewählt werden. Über die Ermittlung der Standzeiten und der Konzentrationen an Schwefelwasserstoff, die in den knapp sechs Wochen über die Kohle strömten, wurden die Beladungen berechnet. Somit konnten alle Aktivkohlen miteinander verglichen werden. Die Ergebnisse zeigten, dass die derzeit in der Aktivkohleanlage verwendete imprägnierte Kohle, DGF 4 KI 2 Bio von der Firma Carbo Tech, nicht die beste ist. Mit Kosten von 77,6 Tsd. € pro Jahr ist die dotierte Aktivkohle Dopetac sulfo 100® von der Firma Adfis die wirtschaftlichste Kohle. Diese überzeugte mit langen Standzeiten, der höchsten Beladung an Schwefel und dem günstigsten Preis.
Die vorliegende Arbeit befasst sich mit der Analyse der Verbindungen zur Blockchain-Technologie und der künstlichen Intelligenz. Das Hauptziel ist, neue Bereiche der beiden Technologien zu beschreiben und zu erklären. Zuerst werden inhaltliche Fragen und Erklärungen für ein besseres Verständnis der beiden Technologien erläutert. Des Weiteren werden gemeinsame Einsatzszenarien, sowie dessen Realisierung betrachtet. Zuletzt werden Vor- und Nachteile, sowie eine Zukunftsprognose der Blockchain-Technologie und der künstlichen Intelligenz aufgestellt.
Untersuchung des hämolytischen Verhaltens alternder Blutproben mit ausgewählten Lösungsmitteln
(2017)
Die Untersuchung der Blutspuren am Tatort kann bei der Aufklärung eines Verbrechens hilfreich sein. Neben der Blutmusteranalyse, bei der Form und Verteilung von Blutspuren untersucht werden, ist auch die Blutaltersbestimmung fundamental, um den zeitlichen Ablauf einer Tat detailliert beschreiben zu können. Dafür sind im letzten Jahrhundert viele Methoden vorgestellt worden. Neben einer Farbskala für die Bestimmung des Blutalters vom Anfang des 20. Jahrhunderts gibt es heute mittlerweile computergestützte Ansätze, die jedoch meist sehr zeitaufwendig sind und eine schwere oder gar teure Ausrüstung benötigen. In dieser Arbeit sollte das hämolytische Verhalten alternder Blutproben mit drei ausgewählten Lösungsmitteln (destilliertes Wasser, Kochsalzlösung und Zitronensäure) untersucht werden. Dazu wurden 40 Messungen von präparierten Blutproben mit einem Spektroskop durchgeführt und ausgewertet. Für die Bestimmung des Blutalters wurden die Peaks des Oxyhämoglobins, bei 540 und 576 Nanometer, und die des Methämoglobins, bei 500 und 630 Nanometer, näher betrachtet. Es konnte festgestellt werden, dass die Oxyhämoglobin-Peaks mit zunehmendem Blutalter abnehmen und die Methämoglobin-Peaks entsprechend zunehmen, bis die typischen Spitzen des Blutspektrums nicht mehr ersichtlich sind.
Nanopartikel gelangen vor allem aus der Industrie oder durch Regenwasser aus den Städten in Klärwerke und somit in den Wasserkreislauf. In diesem Versuch soll das Verhalten von Cerdioxid-Nanopartikeln in zwei Laborkläranlagen mittels verschiedener Zugabemethoden untersucht werden. Dafür wurden zunächst die Leistungsfähigkeiten der Laborkläranlagen untersucht, indem Proben des Zulaufes und des Ablaufes entnommen und die Überwachungsparameter analysiert wurden. Für die Untersuchung der Nanopartikel wurden die entnommenen Schlamm- und Ablaufproben aufgeschlossen und mittels ICP-MS gemessen.
Die Leistungsfähigkeit beider Laborkläranlagen konnte mit einem Kohlenstoffabbau von im Mittel über 90% nachgewiesen werden. Bei Laborkläranlage 1 wurde eine einmalige Zugabe der Nanopartikel gewählt, dabei setzten sich 95% der Nanopartikel im Schlamm und 5% im Ablauf fest. Im Gegensatz dazu wurde bei Laborkläranlage 2 eine kontinuierliche Zugabe gewählt. Zu Beginn der Versuchsreihe sind die Cerfrachten gesunken, da durch das hohe Blindwert-Niveau mehr Nanopartikel aus der Anlage herausgespült als hinzugegeben wurden. Nach einer Erhöhung der hinzugegebenen Masse war ein Anstieg der Cerfracht zu erkennen, da die Fracht, die aus der Anlage herausgespült wurde, kleiner war als die zugegebene Masse an Nanopartikeln. Die Nanopartikel setzten sich zu 96% im Schlamm und zu 4% im Ablauf fest.