Refine
Document Type
- Bachelor Thesis (703)
- Master's Thesis (180)
- Diploma Thesis (56)
Year of publication
Keywords
- Computerforensik (56)
- Softwareentwicklung (52)
- Computersicherheit (48)
- Videospiel (45)
- Maschinelles Lernen (44)
- Blockchain (25)
- Computerspiel (23)
- Datensicherung (21)
- Virtuelle Realität (18)
- Programmierung (17)
Institute
- Angewandte Computer‐ und Biowissenschaften (939) (remove)
In der vorliegenden Bachelorarbeit gibt ein Überblick über die Möglichkeiten in Deutschland Japanisch zu lernen und welche Bereiche des Lernprozesses nicht ausreichend gedeckt sind Raum für eine eigens konzeptionierte Testsoftware. Danach werden bereits existierende Applikationen auf bestimmte Faktoren getestet, die für die Erstellung des Prototypen während dieser wissenschaftlichen Arbeit als Vergleich und Leitfaden dient. Abgeschlossen wird diese Arbeit mit einer empirischen Datenerhebung, die durch das Testen von Probanden zeigt, ob die Verwirklichung der Autorin hinreichend ausgeführt wurde und welche erweiternden Möglichkeiten es in Zukunft für den "Kanji-Trainer" geben wird.
Das Ziel dieser Forschung ist die Erarbeitung eines effizienten Workflows für die Erstellung von 3D Modellen in Echtzeitanwendungen mit Hilfe der Photogrammetrie. Studios der Spieleentwicklung soll es dabei ermöglicht werden, optimierte Modelle für diese Anwendungen zu entwickeln und eine Balance zwischen der realistischen Abbildung der gescannten Person und Verwendbarkeit in einer Engine zu schaffen.
In Kooperation mit dem Technical Animator der Firma metricminds (Felix Lang) und dem Inhaber des Unikat 3D Studios (Ralf Böhm) wurden einige Anhaltspunkte zur Vorbereitung und Positionierung des Darstellers vor der initialen Aufnahme im Fotostudio ermittelt, welche im weiteren Verlauf Zeit einsparen sollen. Anschließend wurde, unter Verwendung verschiedener Programme, der zeiteffizienteste Workflow erarbeitet mit welchem eine realistische 3D Replika der Darstellerin erstellt werden konnte.
Die Ergebnisse zeigten, dass die Komponenten Augen, Haare und Kleidung das realistischste Ergebnis liefern, wenn sie gesondert aufgenommen werden bzw. digital erstellt und simuliert werden. Im Falle dieser Arbeit musste die Darstellerin, inklusive Haare und Kleidung, mit nur einem Material gerendert werden, da alle Elemente gemein im Fotostudio aufgenommen wurden. Dies bedeutete einen Kompromiss für die Reflektivität des Modells zu finden, da dieser Wert sich für Kleidung, Haut und Haare unterscheidet.
Diese Arbeit befasst sich mit der Rolle der löslichen Zucker Glukose, Fruktose, Saccharose und Raffinose bei der Ausbildung der pflanzlichen Frosttoleranz, spezifisch bei den Arabidopsis thaliana Genotypen Col-0, pgm und swe. Der Effekt der Zucker wird im Zusammenhang mit der subzellulären Kompartimentierung dieser Zucker untersucht. Die Frosttoleranz der drei Genotypen wurde sowohl im nicht-akklimatisierten als auch akklimatisierten Zustand mithilfe der „electrolyte leakage“ Methode und der daraus gewonnenen LT50 ermittelt. Um die Unterschiede in den ermittelten Frosttoleranzen der Genotypen zu erklären, wurden die subzellulären Kompartimente Vakuole, Plastide und Cytosol getrennt und die Anteile der Zucker in den Kompartimenten gemessen via HPLC. Die Messungen ergaben eine mögliche Rolle von unterschiedlichen, plastidären Raffinose- und Glukoseanteilen für die unterschiedlichen Frosttoleranzen der Genotypen im akklimatisierten Zustand.
Sämtliche Daten im Rahmen dieser Arbeit wurden am IBBS der Universität Stuttgart in der Arbeitsgruppe von Herrn Professor Arnd Heyer erhoben.
In dieser Arbeit werden mehrere Interaktionskonzepte zur Steuerung einer VR-Anwendung entworfen und implementiert. Um ihre Gebrauchstauglichkeit zu bewerten, erfolgt die Evaluation der Konzepte durch Nutzergruppen der Anwendung. Die Anwendung dient der Visualisierung von Raumplanungen aus CAD-Daten.
Die vorliegende Abschlussarbeit gibt einen Überblick über die Herkunftsbereiche und Eintragspfade von Spurenstoffen, die in den Ab- und Gewässern der Region Chemnitz auftreten. Des Weiteren wird die Effizienz der Zentralen Kläranlage der Stadt Chemnitz hinsichtlich ihrer Eliminationsleistung von Mikroschadstoffen untersucht. Zudem soll die Analyse des Indirekteinleiterkatasters der Stadt aufschließen, inwieweit eine derzeitige Überwachung der Stoffeinträge stattfindet. Während sich der erste Teil der Arbeit mit der Untersuchung vorhandener Daten beschäftigt, wird im weiteren Verlauf eine Maßnahme zur Spurenstoffreduzierung mithilfe einer Aktivkohleadsorption beschrieben und auf ihre Leistung überprüft. Bei der Auswertung der Analyseergebnisse wird deutlich, dass ihre Wirksamkeit von der jeweilig untersuchten Stoffgruppe abhängt.
Moderne Echtzeit 3D-Grafik und die menschliche Wahrnehmung haben die Gemeinsamkeit in ihrem jeweiligen Aufbau sehr komplex, sowie von vielen Faktoren abhängig zu sein. So umfangreich die Darstellungsmöglichkeiten im heutigen Echtzeitrendering jedoch sind um realistische und interaktive Grafik zu erzeugen, so vielfältig sind auch die
Sehgewohnheiten derer Betrachter. Denn dessen Wahrnehmung entscheidet letztlich darüber was als realistisch angenommen wird. Technische Entwicklungen und Wahrnehmung bedingen jedoch auch einander, und gehen mit dem Wandel der Zeit. Einst unerwünschte Bildfehler aus der Fotografie markieren seit jüngster Vergangenheit ein wichtiges visuelles Element aktueller Echtzeitgrafik. Eine mögliche Realismus-Steigerung dieser Bildfehler soll insofern einerseits hinterfragt, und andererseits hinsichtlich derer Wahrnehmungswirkung auf Betrachter untersucht werden.
Digitale Spiele existieren seit über 60 Jahren und erfreuen sich wachsender Beliebtheit in der Gesellschaft. Dennoch scheint ihnen oftmals nur ein Unterhaltungswert zugesprochen zu werden. Die folgende Arbeit untersucht das Spiel auf seinen künstlerischen Aspekt und auf dessen Anerkennung auf verschiedenen Ebenen. So wird herausgestellt, inwieweit das Spiel als Form der Kunst etabliert ist und welche Defizite sich diesbezüglich ausmachen lassen.
Diese Bachelorarbeit befasst sich mit der Untersuchung zweier eigens hierfür erwählter Fitness-Apps: ‚Fitnesstrainer FitProSport‘ und ‚Fitness Challenge‘.
Ziel ist die Darstellung des gesundheitlichen wie zweckmäßigen Nutzens von Mobile-Apps und ihrer Benutzbarkeit, um Rückschlüsse auf deren Eignung zur Unterstützung des Aufbaus oder der Steigerung körperlicher Leistungsfähigkeit zu ziehen. Infolge der literarischen Quellanalyse sowie unter Verwendung von themenbezogenen Studien und Statistiken, erfolgt die Darstellung relevanter, gesammelter Informationen. Einhergehend mit der Betrachtung sowohl von Hintergründen und Entwicklungen der Fitness als ‚modernem Sport‘ als auch von diesbezüglichen mobilen Applikationen unter besonderer Berücksichtigung der ausgewählten Apps werden die Gebiete der Softwareergonomie (Nutzen) und -technik (Benutzbarkeit) näher erläutert. Für die Durchführung eines manuellen, dynamischen Selbsttests des Verfassers gilt es, allgemeine, medizinische, softwareergonomische und -technische Kriterien zur Prüfung zu erarbeiten und entsprechend aufzubereiten. Im Zuge dessen werden Testdokumente zur Begleitung des Testprozesses sowie Fragebögen zu aus den genannten Themengebieten erarbeiteten Prüfkriterien erstellt. Neben dieser Benutzerbefragung dienen auch Diagrammdarstellungen der abschließenden Analyse und Ergebnisbewertung unter Beantwortung der gestellten Forschungsfrage. Ein Ausblick gibt einen Überblick über Relevanz und mögliche Chancen der aufgeschlüsselten Thematik der gerätegestützten körperlichen Betätigung.
Ziel der Arbeit ist die Analyse des Skelettmaterials, welches in den 1930er Jahren in Görzig aufgefunden wurde. Das Material wurde auf die Römische Kaiserzeit und Völkerwanderungszeit datiert. Es wurden die Handknochen ausgewählter Individuen untersucht, um das Geschlecht zu bestimmen und eine Körperhöhen- und Altersschätzung vorzunehmen. Die Arbeit soll mit den bereits erstellten Arbeiten zum Material verglichen werden.
Die vorliegende Arbeit analysiert Monitoringdaten der photo-biologischen Wasserstoffproduktion sowie Nitrogenase- und Hydrogenaseaktivät anhand von Genexpressionsprofilen mit Rhodobacter sphaeroides Stamm 2.4.1. Die Kultivierung erfolgte mit verschiedenen Nährmedien (Referenzmedium, Ananasmedium, Traubenmedium) sowie unter anaeroben Bedingungen. Anhand eines Monitoring, der Wachstumsparameter sowie der Untersuchung von Genexpressionsprofilen konnten Rückschlüsse auf die Optimierung der Wasserstoffsynthese gezogen werden.
In dieser Arbeit wird ein Verfahren zur ionenchromatographischen Bestimmung von Perchlorat entwickelt. Dabei wird die Trennsäule Dionex IonPac AS20 verwendet. Mittels Kalibrierung konnte eine Methode zum Nachweis von Perchlorat in einem Konzentrationsbereich von 2 μg/l – 50 μg/l mit einer Nachweisgrenze von 0,38 μg/l entwickelt werden. Anschließend wurde der Einfluss von den Ionen Sulfat, Nitrat und Chlorid auf die Bestimmung von Perchlorat sowie die Anwendung des Verfahrens auf reale Proben getestet. Dabei wurde festgestellt, dass bei höheren Konzentrationen ab ca. 200 mg/l der Nebenionen die Wiederfindungsrate stark abnimmt. Eine Vorbehandlung mit Silber – und Bariumfilter wirkt dem jedoch entgegen. In realen Proben konnte dank Vorbehandlung Perchlorat ohne Probleme nachgewiesen werden. Lediglich in Abwasserproben ist eine Verunreinigung enthalten, welche die Bestimmung hindert. In realen Proben aus der Umgebung Leipzig und Chemnitz konnte anschließend vor allem in Badebeckenwasser Perchlorat in höheren Konzentrationen bis zu 40,80 μg/l nachgewiesen werden.
Das Ziel dieser Bachelorarbeit ist die Beschreibung und Analyse digitaler Anwendungen von Museen. Es wurde folgende Forschungsfrage definiert: Wie können museale Inhalte digital und interaktiv aufbereitet werden und wie werden sie für die Besucher eines Museums oder die Nutzer von digitalen musealen Angeboten lehrreich und interessant?
Um diese Forschungsfrage beantworten zu können, werden mögliche Verwendungs- und Aufbereitungsarten für museale digitale Anwendungen vorgestellt. Außerdem wird erläutert, wie solche Anwendungen ein positives Lernergebnis beim Nutzer hervorrufen können. Mit diesen Ergebnissen wurde ein Prototyp für eine digitale Anwendung über die Valdivia-Expedition am Museum für Naturkunde Berlin entwickelt. Dieser wurde in einem Nutzertest untersucht und die Ergebnisse werden vorgestellt.
So wird eine Übersicht über digitale museale Anwendungen gegeben und ein realisierbarer Einsatz vorgestellt. Die Möglichkeiten für den vielfältigen Einsatz und positive Auswirkungen für Museen und Nutzer zugleich werden aufgezeigt.
Die vorliegende Arbeit behandelt den Einfluss epigenetischer Faktoren auf die Stickstoffnutzungseffizienz (engl. nitrogen use efficiency) des pflanzlichen Modellorganismus Arabidopsis thaliana. Dabei wird eine mögliche Korrelation zwischen der Stickstoffnutzungseffizienz und der Methylierung der Promotorregionen der drei Gene AT1G55420, AT1G55430, AT1G55440 bestätigt. An ausgewählte Arabidopsis-Akzessionen wird eine Stickstoffmangelstresssituation simuliert und entsprechende Auswirkungen mittels verschiedener Verfahren phänotypisiert. Die Ergebnisse der angewendeten Untersuchungen bieten erste Einblicke in die molekularen und phänotypischen Zusammenhänge der Nutzungseffizienz der Modellpflanze Arabidopsis thaliana unter Stickstoffstressbedingungen dar.
Aminoacyl-tRNA synthetases (aaRSs) are key enzymes in the process of protein biosynthesis, charging tRNA molecules with their corresponding amino acid. Whereas adenosine phosphate fixation is common to all aaRSs, recognition of the respective amino acid to ensure correct translation poses a complex task, which is still not understood to its full extent. Using all aaRS structures in the Protein Data Bank (PDB), this thesis reveals further details about the specificitydetermining interactions of each aaRS. Moreover, inspection of the similarities between these enzymes using the structure-derived interaction data reinforces the sequence-based evolutionary trace of aaRSs to a certain degree: The concurrent development of two distinct Classes of aaRS is apparent at functional level, and previously determined evolutionary subclasses coincide altogether with specific aminoacyl recognition in each aaRS Type. Still, discrimination of amino acids in aaRSs involves a multitude of further relevant mechanisms. Eventually, analysis of specificity-relevant binding site interactions sheds light on how aaRS evolved to distinguish different amino acids.
Soziale Netzwerke und Messaging Dienste sind in der heutigen Zeit nicht mehr nur ein Modetrend für Jugendliche und technikaffine Menschen. Sie sind durch die stetig größer werdende Verbreitung von Smartphones und die sich dadurch bietende Möglichkeit, solche Anwendungen immer und überall zu nutzen, in den Fokus der Allgemeinheit gerückt. Heute sind sie für eine große Mehrheit der Bevölkerung ein fester Bestandteil des privaten und auch beruflichen Lebens. Allerdings sind diese Möglichkeiten auch kritisch zu betrachten, da sie auch leicht missbraucht werden können. Das Ziel der vorliegenden Bachelorarbeit ist es, die Analyseplattform Wandboard zur Verwendung des Messaging Dienstes Jodel und der automatisierten Extraktion der Posts zu konfigurieren, damit diese später ausgewertet werden können. Dabei soll es möglich sein, die vom Gerät verwendeten GPS-Koordinaten soweit anzupassen, dass ein bestimmtes Gebiet abgerastert und dort alle Nachrichten automatisiert gepollt und anschließend in einer geeigneten Datenstruktur mit den entsprechenden Koordinaten und Nutzeridentifikationen abgelegt werden können. Zunächst beschreibt die Arbeit also alle nötigen Grundlagen und anschließend die Konfiguration des Wandboards zur Verwendung Jodels und dem Anpassen der Standortdaten. Im Anschluss wird das Suchen und Extrahieren der Bilder und Ansätze dazu, wie die Nachrichten extrahiert werden könnten, beschrieben. Dabei wird auch auf das Abfangen und Auswerten von Netzwerkverkehr durch ARP Poisoning und das Auswerten von RAM Dumps eingegangen. Zusätzlich wird auch das Anpassen der GPS-Koordinaten und das dadurch ermöglichte Abrastern eines bestimmten Areals erklärt. Die Triangulation des Ausgangsortes eines Posts und die Identifikation der einzelnen Teilnehmer werden theoretisch beschrieben und zuletzt noch die Eignung des Wandboards für dieses Projekt diskutiert. Letztendlich kann diese Arbeit als Leitfaden und Vorarbeit für später folgende Forschung verwendet werden, um die hier bereits gemachten Erkenntnisse zu nutzen und etwaige Fehler zu vermeiden.
In dieser Studie wurde das Auftreten zu hoher (Hyperkalzämie) bzw. zu niedriger (Hypokalzämie) Calciumkonzentrationen bei einer Zufallspopulation untersucht. Dabei wurden unterschiedliche Parameter (Calcium, Albumin, Parathormon, Phosphor, Vitamin D) zu Klärung der Ursache gemessen und in Absprache mit den Einsendern die Gründe der abnormen Calciumkonzentrationen geklärt.
Im Rahmen dieser Arbeit wurde die sekretorische Produktion des DESIGNER-Proteins DP10A durch Pichia pastoris untersucht. Dazu wurde die DNA-Sequenz des Zielproteins in den Vektor pPICZαA kloniert und in das Genom von Pichia pastoris durch homologe Rekombination integriert. Für die Auswahl eines geeigneten Klons wurde ein Klon-Screening durchgeführt. Zusätzlich wurde die Produktion des Zielproteins bei verschiedenen pH-Werten sowie die Löslichkeitsverteilung von intrazellulär vorliegendem DP10A untersucht.
Das DESIGNER-Protein DP10A konnte mit P. pastoris produziert werden. Allerdings konnte das Ziel einer sekretorischen Produktion nicht erreicht werden, da DP10A nur intrazellulär und hauptsächlich unlöslich in der Zelle vorlag.
In dieser Masterarbeit wurde die Entwicklung des Erregerspektrums und der Resistenz der Erreger gegen spezielle Antibiotika von 2010-2017 untersucht. Die untersuchten Proben wurden vom Medizinischen Zentrallabor Altenburg ausgewertet und stammten dabei aus Urinen, pulmonalen Materialien oder Blutkulturen. Innerhalb der Arbeit wurden mit dem assoziativen Datenanalyse-Tool und Reporting-System QlikView die Labordaten der untersuchten Jahre hinsichtlich der Entwicklung der Erregeranteile und deren Resistenz ausgewertet. Es wurden die häufigsten bakteriellen Erreger bei klinisch relevanten Infektionen ermittelt und ihr Verhalten gegen leitliniengerechte Antibiotika untersucht. Das Auftreten von multiresistenten Erregern konnte detektiert und deren Entwicklung analysiert werden. Die Materialien wurden getrennt voneinander untersucht und deren Ergebnisse gegenübergestellt.
Das Vitamin Biotin ist als Coenzym in verschiedene Vorgänge im Körper involviert und beeinflusst zudem auch das Wachstum und die Erhaltung von Epidermiszellen. Besonders bei der Stabilität und Gesundheit von Rinderklauen spielt dies eine große Rolle - ein Biotinstatus der Rinder könnte also der Prävention von diversen Klauenerkrankungen dienen. Die vorliegende Bachelorarbeit beschäftigt sich daher mit der Validierung eines ELISAs zur Bestimmung von Biotin in Rinderblut. Dafür wurden die Leistungsmerkmale Präzision, Richtigkeit, Wiederfindung, Linearität und Robustheit untersucht und die Ergebnisse diskutiert.
Wirksamkeitstestung des Helikase-Primase Inhibitors PXI26250 gegen das Herpes simplex Virus Typ 1
(2018)
Die vorliegende Arbeit thematisiert die Wirkstofftestung des neuartigen Helikase-Primase Inhibitors PXI26250 gegen eine HSV-1 Infektion in einer in vitro Untersuchung der Zelllinie A549-Luc. Dabei werden insbesondere die Einflüsse verschiedener Konzentrationen des Medikaments und die zeitlichen Auswirkungen unterschiedlicher Inkubationszeiten auf die Infektionsintensität analysiert. Neben einer Antikörpermarkierung infizierter Zellen mittels Immunocytochemie werden für die Quantifizierung der Ergebnisse weiterhin ein Cytotoxizitäts - sowie Zellviabilitäts Assay hinzugezogen.
In this work, the task is to cluster microarray gene expression data of the cyanobacterium Nostoc PCC 7120 for detection of messenger RNA (mRNA) degradation patterns. Searched are characteristic patterns of degradation which are caused by specific enzymes (ribonucleases) allowing a further biological investigation regarding biochemical mechanisms. The mRNA degradation is part of the regulation of gene expression because it regulates the amount and longevity of mRNA, which is available for translation into proteins. A particular class of RNA degrading enzymes are exoribonucleases which degrade the molecule from its ends, whereby a degradation from the 5’ end, the 3’ end or from both ends is theoretically possible.
In this investigation, the information about exoribonucleolytic degradation is given in a microarray data set containing gene expression values of 1,251 genes. The data set provides gene expression vectors containing the expression values of up to ten short distinct sections of a gene ordered from the genes 5’ end to its 3’ end. For each gene, expression vectors are available for both nitrogen fixing and non-nitrogen fixing conditions, which have to be considered separately due to biological reasons. Accordingly, after filtering and preprocessing, two datasets for clustering are obtained consisting of 133 ten-dimensional expression vectors. The similarity of the expression vectors is judged by a newly correlation based similarity measure and compared with the results obtained by use of the Euclidean distance. A non-linear transformation of the correlations was applied to obtain a dissimilarity measure. By choice of parameters within this transformation a user specific differentiation between negative and positive correlated gene expression vectors and an adequate adjustment regarding the noise level of gene expression values is possible.
Clustering was performed using Affinity Propagation (AP). The number of clusters obtained by AP depends on the so-called self-similarity for the data vectors. This dependence was used to identify stable cluster solutions by self-similarity control. To evaluate the clustering results, Median Fuzzy c-Means (M-FCM) was used. Further, several cluster validity measures are applied and visual inspections by t-distributed Stochastic Neighbor Embedding (t-SNE) as well as cluster visualization are provided for mathematical interpretation analysis of clusters.
To validate the clustering results biologically, the found data structure is checked for biological adequacy. A deeper investigation into the mechanisms behind mRNA-degradation was achieved by use of a RNA-Seq data set. Contained 40 (base pair) bp long reads for non-nitrogen fixing and nitrogen fixing conditions were assembled using bacteria-specific ab-initio assembly of Rockhopper. Thus, mRNA (transcript)-sequences of the clustered genes are obtained. A further investigation of the untranslated regions (UTRs) is performed here due to the assumption that exoribonucleases recognize specific transcript-sequences outside of the annotated gene regions as their binding sites. These UTRs need to be analyzed regarding sequence similarity using motif-finding algorithms.
Die folgende Arbeit lehnt sich an die Hypothesen von Franz und Behringer et al. 2017 an. Zum einen wurde die Hypothese über die möglichen Funktionen des Blebbens von Skelettmuskelzellen dargelegt und zum anderen die Neuinterpretation über die Expression der Kreatinkinase unter ischämischen Dispositionen. Das Blebben, also die Bildung von Vesikeln unter Exozytose, ist in der Biologie bereits allseits bekannt. Die wichtigste Funktion ist die Übertragung von Signalstoffen zu den benachbarten Zellen oder auch Organen. Hier wird die Hypothese aufgestellt, dass das Blebben ein Schutzmechanismus vor der Nekrose bzw. Apoptose darstellen könnte.
Die Kreatinkinase ist bis dato als Biomarker für Myokardinfarkte bekannt. Jedoch wird vermutet, dass dieses Protein ebenfalls zum Schutzmechanismus beitragen könnte. In unseren Untersuchungen werden neben der Kreatinkinase auch die muskelspezifischen Biomarker Myostatin, Atrogin1 und MuRF1 mit einbezogen.
Zu Beginn des Versuches wurde eine primäre Muskelzellkultur etabliert und anschließend zu definierten Zeiten hypoxischen Bedingungen ausgesetzt. Im Zuge dessen wurde die RNA isoliert und die relativen Expressionen der oben genannten Biomarker mittels qRT-PCR ermittelt. Die Ergebnisse zeigen zwar eine Abhängigkeit zwischen der Expression und der Hypoxiedauer, jedoch sind diese teilweise von Probe zu Probe so unterschiedlich, dass bisher keine signifikante Aussage getätigt werden kann.
Da anhand einer Desminfärbung dargestellt werden konnte, dass die Zellkulturen eine enorm unterschiedliche prozentuale Anzahl an Muskelzellen besitzen, wird das möglicherweise ein Grund dafür sein, dass die Ergebnisse stark voneinander abwichen.
In dieser Arbeit wird die Auswirkung der landwirtschaftlichen Nutzung im Nahbereich der Gewässer auf den Blattabbau in kleinen Fließgewässern der Agrarlandschaft untersucht. Hierzu wurde ein Freilandversuch an zwölf Messstellen in Deutschland durchgeführt, um den Blattabbau durch Makroinvertebraten und Mikroorganismen zu bestimmen. Die Abbauraten wurden auf einen Zusammenhang mit der landwirtschaftlichen Nutzung des Nahbereichs der Gewässer, der Ausprägung von allgemeinen abiotischen Umweltstressoren und der Dichte und Artzusammensetzung der Zerkleinerer überprüft.
Diese Bachelorarbeit beschäftigt sich mit der Analyse des Bussystems FlexRay. Dieses System wird vor allem für sicherheitskritische Aspekte im Fahrzeug eingesetzt. Somit kann das FlexRay über das Leib und Leben des Fahrers und aller Verkehrsteilnehmer mitwirken. Gerade in heu-tigen Zeiten, wo immer mehr Technologie zur Sicherheit des Verkehrs beitragen soll, wird vor allem in die Sicherheit des Systems im Bezug zur Zuverlässigkeit geforscht. Die Absicherung vor Manipulationen oder Angriffen auf den Bus wird jedoch nur wenig untersucht. Daher soll diese Ausarbeitung zur Analyse des Bussystems, bezüglich der IT-Sicherheit dienen. Dabei ist die Thematik dieser Arbeit noch nicht abgeschlossen, sie bildet jedoch eine gute Grundlage für weiterführende Versuche.
Die vorliegende Bachelorarbeit beschäftigt sich mit maschinellem Lernen im Kontext des autonomen Fahrens. Das Ziel dieser Arbeit ist das Anlernen eines Steuerungsmechanismus eines simulierten Fahrzeugs, auf Grundlage maschineller Lernverfahren, speziell dem Deep Reinforcement Learning. Dazu werden zunächst die Grundlagen des autonomen Fahrens und des maschinellen Lernens geklärt. Mit der Unity-Engine und dem ML-Agents Toolkit wurden Szenen erstellt, in denen Agenten trainiert werden. In verschiedenen Szenen mit unterschiedlichen Komplexitäten und Aufgaben sollen die Agenten lernen ein simuliertes Fahrzeug zu steuern und die jeweilige Aufgabe zu erfüllen. Um das Fahrzeug zu steuern muss der Agent die Längs- und Querführung übernehmen. Die Aufgaben können zum Beispiel anhalten in einem Zielbereich, ausweichen vor Hindernissen oder folgen eines bestimmten Streckenverlaufs umfassen. Die Ergebnisse zeigten, dass es möglich ist ein simuliertes Fahrzeug, mit einem durch Deep Reinforcement Learning angelernten Steuerungsmechanismus, zu steuern. In den meisten Szenen zeigten die Agenten ein gutes Verhalten. Durch die Ergebnisse konnten Erkenntnisse gewonnen werden, welche Faktoren bei Lernvorgängen besonders wichtig sind. Es zeigte sich, dass unter anderem die Wahl einer guten Belohnungsfunktion ausschlaggebend war.
Path decomposition of a graph has received an important amount of interest over the past decades because of its applications in algorithmic graph theory and in real life problems. For the computation of a path decomposition of small width, we use different heuritics approaches. One of the most useful method is by Bodlaender and Kloks. In this thesis, we focus on the computation, applications, transformation and approximation of a path decomposition of small width.
It is easy to convert a path decomposition in to nice path decomposition with same width, which is more convinent to use to find the graph parameters like independent sets, chromatic polynomials etc. Inspired by [28], we find an algorithm to compute the chromatic polynomial of a graph via nice path decomposition with small width.
Das Ziel dieser Arbeit besteht darin, die Gestaltung von Lern- und Therapiespielen an Beispiel von Prosodiya zu erfassen. Es wird sich mit den unterschiedlichen Formen von Therapiespielen auseinandergesetzt. Die dazugehörige Forschungsfrage lautet: Wie gestaltet man Therapiespiele? Um diese Frage zu beantworten, wird das Therapiespiel Prosodiya analysiert und sich mit dem Problem der Balance zwischen „Serious“ und „Game“ auseinandergesetzt.
Pankreaskarzinome zeichnen sich durch geringe Überlebensraten aus und sind als schwer heilbar eingestuft, da chemotherapeutische Behandlungsansätze bisher unzureichende Erfolge erzielen. Es ist bekannt, dass die Wärmebehandlung (Hyperthermie) von Tumoren zu einer Sensibilisierung derselben für Chemotherapeutika führt. Bisher wurde nicht untersucht, ob mit Hilfe einer magnetischen Hyperthermiebehandlung bei subletalen Gemcitabin-Konzentrationen Tumorzellen abgetötet werden können. Anhand dieser Arbeit wird die Auswirkung der Kombinationstherapie untersucht. Dabei wird zunächst eine subletal wirkende Gemcitabin-Konzentration (50-70% Zellvitalität), auf PANC-1-Zellen im exponentiellen Wachstum, bis 72 h nach der Inkubation ermittelt. Den vorbehandelten Zellen werden anschließend super-paramagnetische Eisenoxidnanopartikel fluidMAG/C11-D) zugeführt und mit Hilfe eines Magnetwechselfeldes magnetische Hyperthermie (43°C, 1 h) erzeugt. Die Kurz- und Langzeitvitalität (bis 72 h bzw. 14 Tage nach der Behandlung) der Tumorzellen wird nachfolgend mit verschiedenen Vitalitätstests ermittelt und die Effektivität der Therapieform diskutiert.
In this master thesis, we define a new bivariate polynomial which we call the defensive alliance polynomial and denote it by da(G; x; y). It is a generalization of the alliance polynomial and the strong alliance polynomial. We show the relation between da(G; x; y) and the alliance, the strong alliance, the induced connected subgraph polynomials as well as the cut vertex sets polynomial. We investigate information encoded about G in da(G; x; y). We discuss the defensive alliance polynomial for the path graphs, the cycle graphs, the star graphs, the double star graphs, the complete graphs, the complete bipartite graphs, the regular graphs, the wheel graphs, the open wheel graphs, the friendship graphs, the triangular book graphs and the quadrilateral book graphs. Also, we prove that the above classes of graphs are characterized by its defensive alliance polynomial. We present the defensive alliance polynomial of the graph formed of attaching a vertex to a complete graph. We show two pairs of graphs which are not characterized by the alliance polynomial but characterized by the defensive alliance polynomial.
Also, we present three notes on results in the literature. The first one is improving a bound and the other two are counterexamples.
Die vorliegende Diplomarbeit befasst sich mit der Programmierung einer Schnittstelle, Steuerung und Visualisierung für ein intelligentes LKW- Kolonnenparksystem. Das intelligente LKW-Kolonnenparksystem soll die Verkehrsteilnehmer über freie Parkplätze oder Stellplätze informieren.
Das Hauptziel ist, alle Module auf dem Parkplatz in ein übergeordnetes Steuerungs- und Visualisierungssystem zu integrieren.
Bei dieser Arbeit handelt es sich um eine Neuentwicklung mit einem vordefinierten Produkt, deshalb ist für eine qualifizierte Programmierung, die Kenntnis des Produkts und seiner Schnittstellen erforderlich.
Diese Arbeit beschäftigt sich mit Programmiersprachen für die Smart Contract - Entwicklung auf der Ethereum Blockchain. Vier Sprachen sollen vorgestellt sowie anhand eines ERC20 Contracts verglichen und bewertet werden. Zusätzlich soll ihre Sicherheit im Hinblick auf häufige Gefahren der Contract - Entwicklung untersucht und sprachspezifische Unsicherheiten gesammelt werden. Ziel ist es, festzustellen, welche der Sprachen die geeignetste für die Entwicklung sicherer und kostengünstiger Smart Contracts ist, wobei auch Bytecodegrößen und Deploymentkosten einbezogen werden.
Realisierung eines Pin-Testers zur Identifikation von Schnittstellen für forensische Auswertungen
(2018)
Die vorliegende Bachelorarbeit befasst sich mit der Realisierung eines Pin-Testers unter Einsatz eines Analog Devices, mit deren Hilfe Schnittstellen erkannt werden können. Dazu wird eine geeignete Software und ein angemessenes Messverfahren angewendet, um sogenannte Kennlinien von Pins aufzunehmen. Anhand der Kennlinien sollen Schnittstellen erkannt werden. Im Gegensatz zu kommerziellen Produkten wird hier das Analog Device ADALM1000 verwendet, das eine kostengünstige Alternative darstellt. Damit lassen sich andere analoge Systeme testen und ausmessen. Durch seine geringe Größe ist es für den praktischen und dynamischen Einsatz gut geeignet.
In the following study we evaluated capabilities of how a simple autoencoder can be used to trainGeneralized Learning Vector Quantization classifier. Specifically, we proved that the bottlenecks of an autoencoder serve as an "information filter" which tries to best represent the desired output in that particular layer in the statistical sense of mutual information.
Autoencoder model was trained for purely unsupervised task and leveraged the advantages by learning feature representations. As a result, the model got the significant value of the accuracy. Implementation and tuning of the model was carried out using Tensor Flow [1].
An extra study has been dedicated to improve traditional GLVQ algorithm taken from sklearn-lvg [2] using the bottleneck from an autoencoder.
The study has revealed potential of bottlenecks of an autoencoder as pre-processing tool in improving the accuracy of GLVQ. Specifically, the model was capable to identify 75% improvements of accuracy in GLVQ comparing to original one, which has about 62%. Consequently, the research exposed the need for further improvement of the model in the present problem case.
Community acquired pneumonia (CAP) is a very common, yet infectious and sometimes lethal disease. Therefor, this disease is connected to high costs of diagnosis and treatment. To actually reduce the costs for health care in this matter, diagnosis and treatment must get cheaper to conduct with no loss in predictive accuracy. One effective way in doing so would be the identification of easy detectable and highly specific transcriptomic markers, which would reduce the amount of work required for laboratory tests by possibly enhanced diagnosis capability.
Transcriptomic whole blood data, derived from the PROGRESS study was combined with several documented features like age, smoking status or the SOFA score. The analysis pipeline included processing by self organizing maps for dimensionality and noise reduction, as well as diffusion pseudotime (DPT). Pseudotime enabled modelling a disease run of CAP, where each sample represented a state/time in the modelled run. Both methods combined resulted in a proposed disease run of CAP, described by 1476 marker genes. The additional conduction of a geneset analysis also provided information about the immune related functions of these marker genes.
Diese Arbeit befasst sich mit der Entwicklung von digitalen Brettspielumsetzungen analoger Brettspiele. Dabei werden allgemeine Probleme erörtert und Lösungsansätze geboten, sowie am Beispiel von „Five Tribes“ eine eigene Implementierung genauer beschrieben. Erkenntnisse, die aus dem Entwicklungsprozess hervorgegangen sind, werden in allgemeiner Form festgehalten, sodass sie sich auf andere Projekte dieser Art übertragen ließen.
Diese Arbeit beschäftigt sich mit der Realisierung eines open-sourec GSM-IMSICatchers. Dafür werden die Grundlagen des GSM-Protokolles, die technischen Daten verschiedener SDR-Geräte und open-source Software für die Ansteuerung der Software Defined Radios sowie zur Signalverarbeitung untersucht. Für diese Arbeit verwendet wurden das LimeSDR, das Netzwerkanalyseprogramm Wireshark und auf GnuRadio basierende Software. Das erreichte Ergebnis ist ein IMSI-Catcher, der für das Abfangen und Auswerten von GSM-Verkehrsdaten verwendet werden kann. Für das gezielte Wiederaussenden von GSM-Daten wurden notwendige Voruntersuchungen getroffen und erste Tests durchgeführt. Vor einer praktischen Anwendung eines Weiterleitens von GSM-Daten wären aber weitere Anpassungen des
IMSI-Catchers notwendig.
Die hochschuleigene Veranstaltungsreihe beta (Base of Technology, Entertainment and Arts) ist eine studentisch organisierte Fachkonferenz, welche seit 2015 von den Medieninformatik-Studenten des fünften Semesters im Rahmen des Abschlussprojekts des Moduls Game Development organisiert wird. Begleitet durch einen vergleichsweise kurzen Projektzeitraum von ca. 5 Monaten und einem zu erwartenden kleinen Eventmanagement-Team stehen die verantwortlichen Organisatoren dabei in jedem Jahr vor der anspruchsvollen Aufgabe, neben vielen anderen Tätigkeitsfeldern seine Öffentlichkeitsarbeit zu leiten.
Der Fokus dieser Abschlussarbeit besteht darin, einen Leitfaden zu konzipieren, der zukünftige Eventmanagement-Teams in dieser Aufgabe unterstützt. Dabei erarbeitet der Verfasser wirtschaftsnahe Methoden zur Entwicklung einer Public-Relations-Strategie sowie konkrete Vorgehensweisen zur Vorbereitung, Durchführung sowie Nachbereitung der PR eines Events. Die Etablierung von strategischen Evaluationsplänen strebt die Möglichkeit zur effektiven (stark begrenzten) Ressourcenplanung an.
Das Lehrmodul „Datenrepräsentation“ wird im 3 Semester in den Studiengängen der Informatik an der Hochschule Mittweida durchgeführt. In den Vorlesungen werden dabei verschiedene Datenrepräsentationstechnologien vorgestellt. Zur praktischen Umsetzung dieser Technologien finden außerdem eine Reihe von Praktikumsveranstaltungen statt. Diese Arbeit behandelt die Verbesserung und Erweiterung ausgewählter Praktikumsinhalte des Lehrmoduls Datenrepräsentation. Bestehende Praktikumseinheiten werden zunächst hinsichtlich der Struktur analysiert. Danach werden Verbesserungsmöglichkeiten erläutert und schließlich realisiert. Im Rahmen dieser Arbeit werden außerdem neue Praktikumseinheiten konzipiert, welche unter anderem die Technologien JSON und RESTful Webservices behandeln. Es werden neue Praktikumsanleitungen erstellt sowie Beispielprogramme implementiert, welche in den Praktikumsveranstaltungen des Lehrmoduls eingesetzt werden können.
In der vorliegenden Arbeit geht es darum, herauszufinden, ob es möglich ist, die Heldenreise nach Joseph Campbell, auf Erklärvideos anzuwenden. Dabei wer-den die verschiedenen Formen des Storytellings analysiert, sowie erörtert, was ein gutes Erklärvideo ausmacht. Die Heldenreise wird weiter analysiert, um festzustellen, inwieweit die Heldenreise als Blaupause benutzt werden kann. Auf Basis dieser Blaupause wird ein Erklärvideo im Lernbereich erstellt und mit Hilfe einer Umfrage ausgewertet, ob es sinnvoll ist, diese Vorlage zu nutzen.
Die Aufgabe der V2X-Kommunikation ist es, zukünftig die Sicherheit und Effizienz im Straßenverkehr zu erhöhen. Das Ziel dieser Arbeit besteht darin, sicherheitsrelevante Aspekte von Car2X Protokollen zu analysieren. Grundlage bildet hier der europäischen ETSI-Standard. Da es sich bei dieser Arbeit um eine Literaturrecherche handelt, werden zu diesem Zweck die Veröffentlichungen des Standards herangezogen. Zunächst wird das Netzwerk aufgezeigt, in dem die Kommunikation zwischen den Fahrzeugen und der Infrastruktur stattfindet. Anschließend werden wichtige Protokolle analysiert und verschiedene Angriffspunkte untersucht. Die verschiedenen Angriffe werden mit anderen Forschungsarbeiten verglichen und analysiert. In dieser Arbeit wurde festgestellt, dass trotz spezieller Sicherheitsvorkehrungen, Angriffe auf das Netzwerk und die Protokolle möglich sind.
Die vorliegende Bachelorarbeit befasst sich mit dem Gerichtssaal der Zukunft. Besonders durch Auswertung von Literatur wird dargestellt, wer in einem Gerichtssaal mit welchen Aufgaben agiert und wie der Strafprozess abläuft. Die Spuren und Beweise, die den Ablauf des Strafverfahrens im Wesentlichen beeinflussen, werden deshalb genauer betrachtet. Dabei wird zwischen analogen und modernen digitalen Spuren unterschieden. Zum Schluss wird geklärt warum Monitore bereits in jedem Gerichtssaal enthalten sein sollten und welche weiteren möglichen Veränderungen im Gerichtssaal vollzogen werden könnten, um modernen Methoden, wie der 3D-Tatortrekonsturktion, gerecht zu werden.
Die Dokumentation eines kriminalistisch relevanten Tatortes ist eines der wichtigsten Bestandteile der forensischen Untersuchung. Dafür dienen heute unter anderem Laserscanner. In dieser Arbeit wird ein Ablauf für die Erstellung eines 3D-Modells aus Laserscannerdaten von der Erstellung der Scandaten bis zur Verarbeitung dieser in der Software auch anhand von Fallbeispielen erläutert. Dafür dienen FARO Laserscanner Focus 3D X 130 und die Software FARO SCENE. Außerdem werden die entstandenen Modelle evaluiert und der Aspekt des Zeitaufwandes betrachtet.
Das Ziel der vorliegenden Bachelorarbeit war es, ein Vorgehen zur systematischen Analyse von Spielmechaniken, welche darauf abzielen Gewohnheiten bei den SpielerInnen durch die Nutzung operanter Konditionierung, zu entwickeln. Außerdem sollten durch die Analyse verschiedener Mechaniken bestimmte Muster, die bei der Verwendung dieser Methoden auftreten, herausgearbeitet werden. Dazu wurde ein Fragenkatalog auf Basis der theoretischen Grundlagen der Gewohnheitsbildung, sowie der operanten Konditionierung entwickelt und auf verschiedene Beispiele angewandt. Das entwickelte Vorgehen stellte eine gute Grundlage für die Diskussion der betrachteten Mechaniken dar. Folgende Muster konnten durch die Analyse gefunden werden: Für das Erzeugen eines regelmäßigen Verhaltens wird das Zielverhalten in fixierten Abständen verstärkt, Verstärkung wird häufiger genutzt als Bestrafung um ein Spielverhalten zu konditionieren, für die Zielgruppe der Core Gamer wird die stattfindende Konditionierung eher verborgen und die Motivatoren Angst, Schmerz, soziale Anerkennung und soziale Ablehnung werden seltener genutzt als Hoffnung und Genuss. Die Bachelorarbeit ist nicht nur für die Spieleentwicklung interessant, sondern auch für den bewussten Konsum von Videospielen und für die gesetzliche Regulierung der betrachteten Methoden.
Ziel der Arbeit ist die bessere Überwachung einer dreispurigen Tankzugabfüllung. Im Hauptteil richtet sich die Betrachtung im Wesentlichen auf die Risikobetrachtung und Nutzwertanalyse sowie die Auswahl einer geeigneten speicherprogrammierbaren Steuerung sowie eines Bedienrechners. Des Weiteren befasst sich diese Arbeit mit der Einrichtung und Konfiguration der Überwachungsstation (Bedienrechner) sowie der speicherprogrammierbaren Steuerung.
Gegenstand dieser vorliegenden Bachelorarbeit ist die Firma NetConsult und der langjährige Kunde das Landratsamt Pirna und seine Außenstellen die Schulen. Die Schulen des Landkreises Pirna stehen vor dem Problem, dass ihre vorhandene IT-Infrastruktur überaltert ist und ein zeitgemäßer Unterricht nur noch mit viel Mühe und Aufwand gewährleistet werden
kann. Aufgrund der Überalterung der IT-Technik ist ein hoher Wartungsaufwand verbunden. Nun wünscht sich das Landratsamt Unterstützung. Dies wurde mit Hilfe einer Ausschreibung realisiert, welche die Firma gewann. Die vorliegende Arbeit beschäftigt sich mit dem genannten Problem, um eine passende Lösung in Form einer Konzeptstudie zu finden. Die Lösung sieht vor, die vorhandene IT-Infrastruktur der Schulen zu zentralisieren, um zum einen den Aufwand mit der momentanen Struktur zu minimieren und zum anderen die Geräte besser zu administrieren sowie die Lebensdauer zu optimieren. Als Grundlage dienen die Ausschreibungsunterlagen der Firma NetConsult. Diese sind hinsichtlich der vorhandenen Hardware inklusive Gerätedaten an jeder Schule zu analysieren. Dies ist wichtig für das Ergebnis der Konzeptstudie. Hier fließen alle analysierten Daten sowie Technologien ein, um für jede Schule nach modernen Maßstäben eine passende Lösung zu finden. Die einzusetzenden Technologien sollen helfen, eine zentrale Verwaltung der Schulen zu ermöglichen, indem neue Wege gegangen werden können. Die Lösung ist als Netzwerkplan dargestellt. Dieser enthält jeden Standort und die zentrale Einheit das Landratsamt Pirna. Alle Schulen sollen mit dem Landratsamt verbunden sein.
In this work, we discuss the key role that “conflict minerals” (Gold, Coltan, Cobalt, Tin, Tungsten) play in global supply chains and high-technology industries, and the issues surrounding their extraction and trade in origin
countries, particularly in the African Congo Basin and the Great Lakes Region. We discuss ongoing international efforts to combat violence, child labour and human rights violations at mineral extraction areas, particularly in the Democratic Republic of the Congo (DRC), where very large mineral reserves have been discovered. We present the OECD Due Diligence Guidance for Responsible Supply Chains of Minerals from Conflict-Affected and High-Risk Areas, and the
GOTS MineralTrace mineral proof-of-origin and trade chain certification solution developed by ibes AG in Germany, which automates and simplifies the implementation of the OECD Guidance. We discuss a pilot project in DRC involving the GOTS GoldTrace application, based on the MineralTrace platform. We point out MineralTrace’s benefits and its limitations. We analyse possible solutions to said limitations, including an analysis of blockchain-based transactional information exchange and record keeping systems, and finally we propose a new MineralTrace Application Programming Interface (API) that solves current limitations, introduces configuration flexibility for client applications, introduces workflow flexibility to adapt MineralTrace to any country or region, and simplifies data export functionality.
Die vorliegende Arbeit befasst sich mit der Anwendbarkeit allgemeiner Gestal-tungsgrundlagen zur Optimierung der Spielerführung im narrativen 3D-Levelde-sign. Es sollen Parallelen zwischen Nutzerführung im Design und Spielerführung im Leveldesign aufgezeigt und ausgearbeitet werden. Dazu werden die Auswir-kungen der Gesetzmäßigkeiten von Wahrnehmung und Aufmerksamkeit auf den Spieler in drei verschiedenen beispielhaften Spielen untersucht und analysiert.
Das Ziel der vorliegenden Bachelorarbeit besteht darin, den Renesas Synergy S7G2 Mikrocontroller und dessen Merkmale und Funktionen in Bezug auf Sicherheitsmechanismen zu analysieren, um eventuelle Schwächen zu identifizieren. Dafür werden zu Beginn Mikrocontroller und deren Eigenschaften grundlegend erklärt. Weiterführend werden sowohl praktische als auch theoretische Untersuchungen und Betrachtungen des S7G2s angestellt, wobei das Hauptaugenmerk in der Praxis auf der JTAGSchnittstelle liegt. Abschließend wird der Renesas Controller und dessen Merkmale mit denen des Atmel ATXMEGA-A3BU-Xplained Mikrocontrollers verglichen, um die Sicherheit beider zu diskutieren.
Die vorliegende Arbeit befasst sich mit der Entwicklung einer Methode zur Bestimmung von EtG im Haar. Mit dieser Methode können durch den EtG-Gehalt, Aussagen bezüglich des Alkoholkonsums getroffen werden. Das Ziel ist es eine stabile Methode zu entwickeln, um reproduzierbare Messungen in diesem Bereich zu erzielen.
In dieser Diplomarbeit wird die Entwicklung einer Kalibrationseinheit für 3DKraftmessplaten ausgeführt. Diese Entwicklung umfasst die mechanische Konstruktion des Kalibrationsrahmens, Softwareentwicklung der Steuerung, Elektronikentwicklung der Sensorik und Steuerelemente und die Entwicklung eines Hydrauliksystems zur Kraftübertragung der zu kalibrierenden Kraftmessplatte.
Die vorliegende Arbeit befasst sich mit der Umstellung von Webseiten auf ein ideales responsive Webdesign. Das Ziel ist dabei, den aktuellen Stand der Technik zu berücksichtigen. Weiterhin wird auf die Optimierung bis hin zum idealen responsive Webdesign eingegangen. Zur Durchführung werden zwei Projekte mit Hilfe einer Analyse selbstständig umgesetzt. Zusätzlich wird eine Checkliste erstellt, die es Entwicklern vereinfachen soll, eine Umstellung oder Optimierung ihrer bestehenden Seite zu vollziehen.
In einer Zeit zunehmend inhomogenerer Browser-Geräte ist der Konkurrenzkampf im Bereich der HTML-Spiele größer denn je. Um Kunden langfristig zu binden und potenzielle Erlöse zu generieren, müssen die Spiele auf allen relevanten Browser-Plattformen, vom kleinsten Smartphone bis zu Tablets, PCs, Konsolen und TV-Geräten fortwährend Spaß bereiten. Diese Arbeit untersucht, ob mittels Änderungen am Leveldesign eines HTML-Bubbleshooters positive Effekte auf wirtschaftlich relevante Key Performance Indikatoren erzielt werden können. Hierzu werden Regeln für gutes Leveldesign in der einschlägigen Fachliteratur und anderen branchenrelevanten Quellen recherchiert und dargestellt. Auf Basis dieser theoretischen Grundlagen erfolgt eine Anpassung der ersten 10 Level von „kr3m.-Bubbles“ in einem iterativen Prozess mit dem Ziel, vorgegebene Benchmark-Zielgrößen soweit möglich zu erreichen.
Mit der zunehmenden Verbreitung moderner Technologien entsteht auch eine hohe Missbrauchsgefahr. Um eine effektive Gefahrenabwehr weiterhin gewährleisten zu können, erfordert es die Ausweitung der Befugnisse der Sicherheitsbehörden, bzw. die Anpassung an die technischen Möglichkeiten, durch die Schaffung neuer gesetzlicher Grundlagen, die nun für die Online-Durchsuchung erarbeitet wurden. Fraglich ist, ob sich die Argumente des präventiven so einfach auf den repressiven Einsatz dieser Maßnahme übertragen lassen. Ein weiteres, ungleich schwereres Problem ist die Verwendung von
Sicherheitslücken zum Aufspielen der Maßnahme, vor allem bei der Repression, allerdings auch bei der Prävention. In diesem Zusammenhang stellt sich die Frage, ob die Ermittlungserkenntnisse im Strafprozess Beweiskraft besitzen.
Im Rahmen der vorliegenden Arbeit werden anfänglich Informationen über sozialtherapeutische Einrichtungen im Allgemeinen zusammengetragen, ehe der Fokus auf die Chancen, Möglichkeiten, Herausforderungen und Grenzen sozialtherapeutischer Behandlungen gelegt wird. Als Grundlage für sozialtherapeutische Therapien und Programme dienen mit dem RNR-Modell und dem GLM zwei Konzepte, die erläutert und miteinander verglichen werden. Ziel ist die Erhöhung der Behandlungseffektivität und die Resozialisierung von Straftätern. Deren alleine Berücksichtigung reicht bei Gefangenen mit geringer
Behandlungsmotivation, antisozialen Persönlichkeiten oder anderen Problemfällen unter Umständen jedoch nicht aus. Es werden Lösungsansätze erläutert und Grenzen der Behandelbarkeit aufgezeigt. Verschiedene Metaanalysen von Forschern zeigen zudem, inwieweit Sozialtherapien ein Instrument zur Rückfallverhinderung darstellen.
Der Pansensaft der Wiederkäuer wird für die Analyse der Umsetzung von Futtermitteln genutzt, um z.B. auf die verdaute Menge des Futtermittels zu schließen. Ein Test hierfür ist der Hohenheimer Futterwerttest, welcher die Grundlage der Untersuchungen in dieser Arbeit darstellt. Als Alternative für den Pansensaft wurde eine Kot-Suspension, mit der im Vorfeld getesteten optimalsten Verdünnung, verwendet. Ein Vergleich beider Methoden soll Aufschluss über die Anwendbarkeit des Hohenheimer Futterwerttests, mittels einer Kot-Suspension, geben.
Online-Durchsuchung und Quellen-TKÜ nach §§ 100b, 100a StPO als Instrumentarien der Strafverfolgung
(2018)
Der Inhalt dieser Arbeit beschreibt die Online-Durchsuchung und Quellen-Telekommu-nikationsüberwachung. Diese Maßnahmen im Kontext der Strafverfolgung wurden 2017 vom Gesetzgeber in §§ 100b, 100a StPO neu gefasst. Es handelt sich um einen verdeckten Zugriff auf ein informationstechnisches System durch eine Überwachungssoftware, um im Rahmen der Online-Durchsuchung sämtliche Inhalte einsehen und bei der
Quellen-Telekommunikationsüberwachung die Kommunikation aufzeichnen zu können.
Diese Arbeit erläutert einleitend die historische Entwicklung der Maßnahmen, die zum Gesetzgebungsverfahren geführt haben. Darauf aufbauend werden die rechtlichen Aspekte der Online-Durchsuchung und Quellen-Telekommunikationsüberwachung behandelt. Dazu zählen die betroffenen Grundrechte, die Straftatenkataloge und die Verfahrensvorschriften. Ein weiteres Themengebiet beschreibt die technischen Grundlagen im Hinblick auf die benötigte Funktionalität der Spähprogramme und Möglichkeiten zur Systeminfiltration. Der letzte Teil der Arbeit geht darauf ein, inwieweit diese Maßnahmen schon Einzug in die Strafverfolgung gefunden haben und welche Probleme noch überwunden werden müssen.
Diese Arbeit beschäftigt sich mit der „DIN ISO 11731:2017 Wasserbeschaffenheit – Zählung von Legionellen“. Die darin vorgegeben Methoden wurden auf reale Trink-, Bade-, Kühl- und Abwasserproben angewendet. Die Ergebnisse wurden mit denen nach der Empfehlung des Umweltbundesamtes zur Systemischen Untersuchung von Trinkwasser-Installationen auf Legionellen nach Trinkwasserverordnung, sowie aktuell bei der Südsachsen Wasser GmbH angewendeten Verfahren verglichen.
Innerhalb dieser Bachelorarbeit werden die Bestandteile einer grafischen Benutzeroberfläche erläutert und diesbezüglich verschiedene Gestaltungsgrundlagen vorgestellt. Anschließend wird die Entwicklung der grafischen Benutzeroberfläche von 1990 bis 2015 anhand des Betriebssystems Microsoft Windows beschrieben und die Icons analysiert und bewertet.
Soft Learning Vector Quantisation (SLVQ) andRobust Soft Learning Vector Quantisation (RSLVQ) are supervised data classification methods, that have been applied successfully to real world classification problems. The performance of SLVQ and RSLVQ, however, reduces, when they are applied tomore complicated classification problems. In this thesis, we have introducedmodi-fications to SLVQand RSLVQ, in order to havemore capable versions of them. A few possibilities to modify SLVQ and RSLVQ are considered, some of them are not successful enough and they have been included for the sake of completeness. The fruits of the thesis are plenty, including Tangent Soft Learning Vector Quantisation-Strong (TSLVQ-S), together with its more stable version Tangent Robust Soft Learning Vector Quantisation-Strong (TRSLVQ-S), Attraction Soft Learning Vector Quantisation (ASLVQ) and Grassmannian Soft Learning Vector Quantisation (GSLVQ).
Analyse, Strukturierung und digitale Transformation von Patientendaten in der humanitären Hilfe
(2018)
Die vorliegende Arbeit befasst sich mit der Analyse der Arbeitsabläufe in mobilen Kliniken der humanitären Hilfe, um die Prozesse und die darin entstehenden Patientendaten digital zu transformieren. Zur Umsetzung werden zwei Ansätze verfolgt. Dabei handelt es sich einerseits um die Migration der Daten in ein am Markt verfügbares System und andererseits den Weg der Eigenentwicklung. Dazu werden nach Betrachtung der Grundlagen geeignete Komponenten ausgewählt und Konzepte für Datenbank und Online-Anwendung erstellt. Im Anschluss werden die Konzepte umgesetzt und mögliche Erweiterungen angeschnitten.
Diese Arbeit behandelt den Einsatz der Blockchaintechnologie im Supply Chain Management. Unter der Erläuterung der Funktionsweise der Blockchaintechnologie werden Beispiele für mögliche Einsätze von Blockchains im Supply Chain Management aufgeführt und bewertet. Weiterhin wird die Industrie 4.0 in Verbindung mit dem Supply Chain Management gesetzt und deren Bedeutung für die Automatisierung und Digitalisierung hervorgehoben. Am Ende der Arbeit werden zusätzlich die Smart Contracts eingeführt, um damit letztendlich und zusammenfassend durch die Aufführung zusätzlicher Beispiele die aufgestellten Thesen, wie z.B. das durch die immer strenger werdende Gesetzgebung in Europa bzw. in Deutschland z.B. in puncto Lebensmittelnachverfolgbarkeit, die Blockchain einen wesentlichen Beitrag zur Unterstützung des Supply Chain Managements liefern kann, zu untermauern und damit zu beweisen. Weiterhin wird durch die Einbeziehung der Smart Contracts bewiesen, dass die Verwendung der Blockchain in Kombination mit Smart Contracts eine disruptive Auswirkung auf das Vertragswesen in puncto Flexibilität und Sicherheit haben kann.
Die Arbeit befasst sich mit der Erstellung eines Tools zur Vorhersage von Transformationseffizienzen von CRISPR/Cas Systemen in Gerste (Hordeum vulgare L.). Es wurden 57 Zielsequenzen hinsichtlich ihrer Sequenzeigenschaften, wie GC Gehalt oder Entropie untersucht und Modelle für die Vorhersage von Effizienzen, für neue Sequenzen abgeleitet. Dabei konnten gute Vorhersagegenauigkeiten, erzielt werden. Außerdem wurden
mit Hilfe von k-mer Analysen Off-Target Effekte abgeschätzt, wobei hier der Vorteil gegenüber vergleichbaren Tools in der Verwendung von Sequenzrohdaten liegt. Somit kann das Tool auch für unassemblierte Genome genutzt werden.
Die vorliegende Bachelorarbeit befasst sich mit der Untersuchung des Einflusses von Spielemechaniken auf das Involvement und die Motivation von Spielern. Das Ziel war es, anhand dreier mobiler Spiele Mechaniken zu ermitteln, welche bei diesen Einfluss auf die Motivation des Spielers nehmen. Hierzu wurden die Spiele mittels einer empirischen Inhaltsanalyse untersucht und für die Motivation ausschlaggebende Mechaniken bestimmt. Bei einem abschließenden Vergleich wurden Gemeinsamkeiten innerhalb der Spiele dargelegt und deren Schwerpunkte erörtert.
DropConnect (the generalization of Dropout) is a very simple regularization technique that was introduced a few years ago and has become extremely popular because of its simplicity and effectiveness. In this thesis, a suitable architecture for applying DropConnect to Learning Vector Quantization networks is proposed along with a reference implementation and experimental results. Inmany classification tasks, the uncertainty of themodel is a vital piece of information for experts. Methods to extract the uncertainty and stability using DropConnect are also proposed and the corresponding experimental results are documented.
Die vorliegende Arbeit befasst sich mit der Analyse der Europäischen Datenschutz-Grundverordnung. Das Hauptziel hierbei ist das Herausfiltern von Artikeln die im Zusammenhang mit Datenverarbeitung auf Blockchain eine besondere Relevanz haben. Außerdem wird, basierend auf den gefundenen Artikeln, eine Applikation geschrieben, die die Anforderungen einhält und trotzdem mit einer Blockchain kommuniziert.
Die Bachelorarbeit befasst sich mit dem Nachweis des Alkoholkonsummarkers Ethylglucuronid (EtG) auf Leichenhaarproben sowie der Korrelation der
Alkoholkonzentration in verschiedenen postmortalen Muskelgewebsproben. Ein besonderes Augenmerk gilt dabei dem Fäulniszustand der Leichen. Die Proben wurden im Institut für Rechtsmedizin der Charité vor bzw. während der Obduktion gewonnen. Die chemisch-toxikologischen Untersuchungen erfolgten für EtG mittels eines LC-MS/MS-Messsystems. Die Konzentrationen von Ethanol und Fäulnisalkoholen wurden mittels zwei differenten GC-FID-Messsystemen gemessen. Die Analyse der gemessenen Konzentrationen erfolgt mittels statistischer Methoden. Dazu zählen die Auswertung der Spannweiten der EtG-Konzentrationen, auch in Abhängigkeit der verschiedenen möglichen Entnahmeorte von Haarproben am Körper inkl. einer kritischen Hinterfragung der Grenzwerte der Society of Hair Testing. Auch für die Korrelation der Alkoholkonzentrationen in postmortalen Muskelgewebsproben werden statistische Methoden zur Überprüfung herangezogen. In beiden zu untersuchenden Matrices wird auf den Einfluss des Fäulniszustandes bzw. von Fäulnisflüssigkeit eingegangen und dieser kritisch bei der Auswertung der Messergebnisse mit einbezogen. So soll es möglich werden, eine Aussage darüber zu treffen, inwieweit die Messergebnisse in den untersuchten Matrices durch postmortale Prozesse beeinflusst werden.
Diese Bachelorarbeit setzt sich mit der Selbständigkeit in der deutschen Spieleindustrie auseinander. Neben der Beleuchtung der rechtlichen und steuerlichen Sonderstellung folgt eine Aufschlüsselung der kreativen Arbeitsbereiche. Im Rahmen einer stichprobenartigen Umfrage unter Freelancern und unter Berücksichtigung der Ergebnisse einer Metastudie ergibt sich ein Gesamtbild zum aktuellen Entwicklung und Spezialisierung von Selbstständigen in Deutschland. Deren Anteil an der hiesigen Spieleindustrie wächst, doch der Standort Deutschland ist für Viele noch zu unattraktiv.
Die Bedeutung von sicherheitsrelevanten Merkmalen in Kraftfahrzeugen wächst, nicht zuletzt aufgrund des zunehmenden Funktionsumfangs sowie die Leistungsfähigkeit der einzelnen Komponenten im Fahrzeug. So ist es nicht mehr nötig einen Schlüssel zu benutzen, um sein Fahrzeug zu betreten und auch nicht um es zu starten. Gerade im Bereich der Wegfahrsperre werden seit vielen Jahren Transponder eingesetzt, die mittels Funkübertragung die Wegfahrsperre lösen. Im Rahmen dieser Bachelorarbeit sollen verschiedene Antennenvarianten evaluiert werden, die es möglich machen diese Funkübertragung im 125 kHz Bereich mitzuschneiden. Dazu werden einige Wicklungsvarianten und verschiedene Drahtstärken zur Wicklung einer Antenne evaluiert. Die so entstandenen Antennen werden in verschieden Versuchsaufbauten gemessen und getestet.
In dieser Arbeit wird ein prototypisches Rhythmik-Videospiel für die Virtuelle Realität konzipiert und entwickelt. Das Hauptmerkmal der Anwendung ist die automatische Generierung der Spielrunde auf Grundlage der Analyse von Musikstücken, welche über eine freie Softwarebibliothek realisiert ist, die Audiodateien einlesen und musikalische Merkmale extrahieren kann. Abschlieend wird die Eignung der generierten Spielinhalte in Bezug auf die Wahrnehmung der Musikstücke durch den Spieler evaluiert.
Die Dezellularisierung von Organen und Rezellularisierung der gewonnenen extrazellulären Matrix ist zentrales Thema in der wissenschaftlichen Forschung. Die Bachelorarbeit befasst sich mit der Enzym- und Tensid-freien Dezellularisierung von porcinen Herzen, in Anlehnung an eine Gerbereitechnologie zur Aufbereitung von Häuten. Das Ziel besteht darin, die Technologie für die Dezellularisierung von Herzen anzupassen. Nach der Dezellularisierung wird die Effektivität der Methoden mit verschiedenen Analysen, wie z. B. der DNA-Quantifizierung, Aminosäureanalyse, Ermittlung des Proteingehaltes und einer histologischen Färbung untersucht. Es wird gezeigt, dass porcine Herzen ohne den Einsatz von Enzymen und Tensiden dezellularisiert werden können.
Die vorliegende Bachelorarbeit verschafft einen Einblick über die theoretischen Grundlagen und Voraussetzungen des Workflows einer CGI Serienproduktion. Dabei werden theoretische Aspekte eines optimalen Workflows untersucht und auf die Grundlagen einer CGI-Visualisierung eingegangen. Anschließend werden Erkenntnisse aus Interviews mit fachlichen Experten solcher Produktionen mit der Theorie verglichen, einzelne Arbeitsschritte und Problemstellungen auf Optimierungsmöglichkeiten analysiert und Lösungswege zur Verbesserung des Workflows für die Zukunft beschrieben.
Das Ziel dieser Forschungsarbeit ist es herauszufinden, ob IoT-Devices automatisiert auf Sicherheitsschwachstellen getestet werden können. Da IoT-Devices über das Internet permant verfügbar sind, ist ihre Sicherheit von großer Bedeutung. Ein Angriff kann von überall auf der Welt durchgeführt werden. Die Sicherheit der IoT-Devices zu überprüfen ist nicht einfach, da nicht jeder Internetprotokolle analysieren kann. Daher wäre es von Vorteil diese Überprüfung zu automatisieren und für jeden zugänglich zu machen. Um die Forschungsfrage zu beantworten, wurde die Kommunikation einer nicht gepatcheten IoT-Kamera analysiert. Die Daten der IoT-Kamera wurden erst mitgeschnitten, dann analysiert und zum Schluss die Analyse mittels eines Scripts zu automatisieren. Die Ergebnisse der Analyses zeigen, dass die getestete IoT-Kamera sehr bedenklich bezüglich ihrer Sicherheit ist. Die Analyse der IoT-Kamera lies sich automatisieren und anhand einer weiter IoT-Kamera evaluieren. Angriffe jedoch müssen für jede IoT-Kamera individuell generiert werden. Diese Ergebnisse zeigen, dass es noch Bedarf im Berich Sicherheit existiert, vonseiten des Herstellers und des Kunden. Die Sicherheit der IoT-Devices kommt nicht mit dem schnellen technische Fortschritt mit. Somit gibt es viele Sicherheitslücken.
Die vorliegende Arbeit erläutert, wo Browser gespeicherte Nutzerpasswörter ablegen und wie diese zu entschlüsseln sind. Die Untersuchungen beziehen sich auf die vier derzeit meistgenutzten Browser Deutschlands, namentlich Google Chrome, Mozilla Firefox, Internet Explorer und Microsoft Edge. Dabei wird auf diverse Verschlüsselungs-, Hashing- und Kodierungsverfahren eingegangen, die bei der Ver- und Entschlüsselung von Bedeutung sind. Insbesondere die Windowseigene Data Protection API spielt eine übergeordnete Rolle bei der sicheren Speicherung von Passwörtern.
Weiterführend wird die Entwicklung eines Programmes beschrieben, das die Browser-Passwörter per Knopfdruck aus Dateien bzw. Datenbanken von einem forensischen Abbild extrahiert und entschlüsselt. Die Anwendung zeichnet sich durch eine einfache Bedienung und eine geringe Laufzeit aus und kann so besonders bei polizeilichen Ermittlungen von Nutzen sein.
Die vorliegende Arbeit befasst sich mit der Umsetzung eines Parsers für Apple Konfigurationsdateien für die Forensic Software X-Ways Forensics. Dabei werden speziell der Aufbau und die Funktionsweise der Binary Property List Dateien erklärt und ein Programm entwickelt, das in X-Ways Forensics als X-Tension funktionsfähig eingebunden wird. Des Weiteren werden der Aufbau der API und die Schritte erläutert, die notwendig sind, um eine solche X-Tension zu erstellen.
Die Idee des Autors dieser Bachelorarbeit, sich mit der Entwicklung eines Tools zur Detektion falsch positiver Zeitstempel in Zeitreihen zu beschäftigen, formte sich während seiner Tätigkeit für die Abteilung IT-Forensik [int18c] der intersoft consulting services AG.
„Die intersoft consulting services AG ist spezialisiert auf Beratungsleistungen in den Bereichen Datenschutz, IT-Sicherheit und IT-Forensik [int18b].“
Gerade in dem Geschäftsumfeld der IT-Forensik ist häufig die Erstellung einer Zeitreihe nötig um eine IT-Forensische Analyse voranzutreiben. Da die intersoft consulting services AG hauptsächlich im Unternehmensfeld tätig ist, ist besonders das Analysieren von Desktoprechnern beim Verdacht der Weitergabe von firminternen Daten von Relevanz. Dabei hilft die Erstellung einer Zeitreihe, um die Vorgänge auf dem Desktoprechner nachvollziehen zu können. Dabei ist es möglich, auf manipulierte, falsch positive Zeitstempel zu stoßen, welche die forensische Analyse erschweren und verfälschen können.
Das entwickelte Tool detectFPTimetamps.py kann dabei helfen, den Prozess der Analyse durch eine Zeitreihe zu vereinfachen und zu erleichtern, indem die falsch positiven Zeitstempel detektiert werden. Das Tool ist in Python 3 geschrieben und enthält die Suite Plaso/log2timeline, TSK (R) und das Tool analyzeMFT.py.
So wird ein Tool geschaffen, welches einer ständigen Anpassung an den Stand der Technik und dann das Dateisystem benötigt.
Prototypischer Aufbau einer sicheren ICS Umgebung für klein- und mittelständische Unternehmen
(2018)
Die vorliegende Arbeit befasst sich mit einem Prototypischen Aufbau einer ICS Umgebung für klein und mittelständische Unternehmen. Ziel ist es, einen Server einzurichten, von dem aus die Clients Zentral konfiguriert und überwacht werden können. Soweit es möglich ist, soll für das Projekt nur Open Source Software eingesetzt werden, um für die Unternehmen keine hohen Kosten zu verursachen.
Die vorliegende Arbeit befasst sich mit der Kombination der digitalen Forensik mit dem Organisationsziel des Datenschutzes. Es wird untersucht, wie forensische Arbeiten im Rahmen der bestehenden Datenschutzgesetze anzusiedeln sind. Dafür werden die gesetzlichen Grundlagen, welche in Deutschland gelten, thematisiert sowie wird in einem praktischen Beispiel das Auskunftsrecht bei einem sozialen Netzwerk wahrgenommen und die erhaltenen Daten analysiert. Des Weiteren wird in dieser Arbeit dargestellt, welche forensischen Hilfstools und Methoden angewandt werden können, um Datenschutzverletzungen oder das datenschutzkonforme Arbeiten eines Verantwortlichen nachweisen zu können.
Die vorliegende Arbeit befasst sich mit der Analyse von bestehenden Konzepten zur Nutzung Prozeduraler Content Generierung in Games, sowie mit einer aus der Analyse resultierenden Bewertung dieser. Durch eine Aufschlüsselung von Konzepten veröffentlichter Games und algorithmischer Ansätze wird ermittelt, welche Möglichkeiten für die Entwicklung von Games bestehen und wie computergesteuerte Generierung als Werkzeug das künstlerisch-handwerkliche Produkt des Entwicklers erweitern kann.
Zur Analyse stehen neun repräsentative Games, die Prozedurale Content Generierung nutzen, sowie fünf algorithmische Konzepte, mit deren Hilfe Content prozedural generiert werden kann. Die Ergebnisse von Analyse und Bewertung von Games und Algorithmen belegen die Bedeutung Prozeduraler Content Generierung als Werkzeug zur Erweiterung des menschlichen Schaffensvermögens. Untersuchte Konzepte werden ergänzend zu einem Kompendium mit weiteren Methoden und Literaturhinweisen entwickelt.
Viele Regulationsprozesse der Lungenentwicklung sind bisher nicht genau bekannt. Neue Möglichkeiten, diese zu untersuchen, liefert das Clearing von Gewebe in Kombination mit Antikörperfärbungen und 3D-Bildgebungsverfahren. Diese erlauben es, die Organogenese sowie die Expression von Transkriptionsfaktoren, wie z.B. Sox9, in drei Dimensionen zu verfolgen. Im Rahmen dieser Bachelorarbeit wurden die Methoden Clear T2, RTF und CLARITY angewendet und mit verschiedenen Färbungen kombiniert. Dabei wurden hauptsächlich Lungenproben von Ratten verwendet. Die Ergebnisse wurden am konfokalen Laser-Scanning-Mikroskop betrachtet und ausgewertet. Dabei wurden Einflüsse der Clearing-Methoden auf die Qualität der Aufnahmen, aber auch auf die Färbungen beobachtet. CLARITY ermöglichte durch das Hydrogel eine bessere Diffusion der Moleküle in die Probe. Durch das Clearing kam es allerdings zu Veränderungen der Gewebestruktur. Clear T2 und RTF zeigten eine sehr gute Erhaltung der Struktur, jedoch stellte die Penetration größerer Moleküle in das Gewebe eine Herausforderung dar. Es wurde deutlich, dass die Clearing-Methode je nach Fragestellung gewählt werden muss.
Didaktik – die Lehre des Lernens – umfasst all unsere Lebensbereiche; wer lebt, der lernt. Im Zeitalter der Digitalisierung befinden sich die Lernkulturen im Wandel, die Schule ist längst nicht mehr der alleinige Ort, an dem Lehren und Lernen stattfindet.
Die vorliegende Arbeit beschäftigt sich mit der Frage, ob didaktische Modelle aus dem klassischen Schulunterricht in die moderne, digitale Welt der Computer übertragen werden können und wendet ausgewählte Modelle am Beispiel des Modding-Tutorials von Railway Empire an. Der Computer ist dabei nicht nur das Medium, sondern stellt gleichzeitig auch den Lerngegenstand an sich bereit – die Software, die es zu erlernen gilt. Das Ziel der Arbeit ist es, den Idealfall zu finden, der ein bestmögliches Erlernen des Modding-Tools sowohl qualitativ als auch im Kontext der Lerngeschwindigkeit ermöglicht. Dieser Idealfall wird anhand einer didaktischen Analyse ermittelt, die unter anderem den Lerninhalt, die möglichen Methoden und die Zielgruppe, mit besonderem Augenmerk auf ihre Motivation, prüft. Auf der Grundlage dieser Ergebnisse wird die Umsetzung des Idealfalls mit den zuvor bestimmten didaktischen Modellen geplant und abschließend umgesetzt.
Die Ergebnisse der Arbeit zeigen, dass didaktische Modelle in den Bereich der digitalen Welt übertragbar sind. Der entwickelte Idealfall des Modding-Tutorials von Railway Empire folgt in seinem Aufbau gängigen Unterrichtsabläufen und beachtet die Qualitätsmerkmale für ein optimales Vermitteln. Weitere Untersuchungen zum Thema der digitalen Didaktik sind zur Untermauerung der Ergebnisse vorteilhaft.
Das Ziel dieser Bachelorarbeit ist die Entwicklung einer cloud-basierten Projektmanagement Applikation, welche nur grundlegende Methoden des Projektmanagements anbietet. Sie soll darüber hinaus auch offline benutzbar sein und den jeweiligen Anwender über Projektänderungenin Form von Push-Benachrichtigungen informieren. Zu Beginn werden dem Leser dazu die dafür notwendigen Grundlagen der Themen Projektmanagement, Cloud-Computing und Azure App Service vermittelt. Auf dessen Basis wird im weiteren Verlauf ein Konzept für die Umsetzung angefertigt und dieses im Anschluss in Form eines Prototyps umgesetzt. Zum Abschluss wird das Ergebnis noch einmal zusammengefasst und ein Ausblick auf die möglichen Weiterentwicklungen und Verbesserungen gegeben.
Agenten in virtuellen Welten können sich mit Hilfe verschiedener Wegfindungsalgorithmen selbständig von einem Start- zu einem Zielpunkt bewegen. Dafür existieren zahlreiche Algorithmen, um beispielsweise im Rahmen eines Videospiels an die Agenten gestellten Anforderungen und Handlungssequenzen zu erfüllen. Eine solche Anforderung stellt häufig die Navigation durch einen Spielbereich dar. Bei der Anwendung auf Videospiele müssen besondere Voraussetzungen erfüllt werden. Hierzu gehört ein besonders effizienter Umgang mit den zur Verfügung stehenden Ressourcen, um echtzeitfähige Entscheidungen zu ermöglichen und eine nahtlose Integration ins Spielgeschehen zu gewährleisten.
Zu diesem Zweck sind verschiedene klassische Wegfindungsalgorithmen zu implementieren und auf ihre Qualität und Effizienz zu prüfen. Mithilfe der Unity Engine lassen sich verschiedene Szenarien kreieren, die Herausforderungen für unterschiedliche Agenten bilden. Dabei werden die zurückgelegten Wege und Zeiten, aber auch die benötigten Ressourcen mithilfe eines Logging-Systems aufgezeichnet, miteinander verglichen und deren Gute in Abhängigkeit zur Anwendungsdomäne evaluiert.
Das Ziel dieser Arbeit ist es zum einen zu bestimmen, welche Theoretischen Grundlagen zum Thema Game-Design-Dokument sich auf die deutsche Spieleindustrie anwenden lassen, und zum anderen herauszustellen welche Formen von Gamedesign Dokumenten genutzt werden und warum. Dazu werden, mittels Literaturrecherche theoretische Grundlagen eines Gamedesign Dokuments vorgestellt. Im methodischen Teil wurde die Anwendbarkeit auf die deutsche Spieleindustrie, anhand von Experten Interviews überprüft.
In dieser Arbeit geht es um die experimentelle Messung des Game Flows von einem Tower Defense Spiel mithilfe eines Tobii EyeX Eye-Trackers. Dabei wird die Theorie von Eye-Tracking, Flow und dem Tower Defense Genre untersucht. Die Verfasserin erstellt ein Toolchain, das eine Aufnahme von Eye-Tracking Daten ermöglicht und sucht dank einem explorativen Forschungsansatz nach Gemeinsamkeiten und Unterschieden in Daten vom 10 Versuchspersonen.
Das Toolchain besteht aus mehreren Fenstern eines Eye-Tracking Visualisierungsprogramm und einer Software, die diese Fenster aufnimmt und somit eine Analyse der aufgenommenen Daten ermöglicht. Es konnten Gemeinsamkeiten zwischen den Mustern der Visualisierung bei erfahrenen Spielern gefunden werden.
Diese Angehensweise bietet interessante Einblicke in den Game Flow, ist aber als alleinstehende Analyse nicht zu empfehlen.
Die vorliegende Bachelorarbeit hatte zum Ziel, optische Wirkungselemente auf ihre Verwendung und ihren Einfluss auf den Spieler, in virtuellen Umgebungen von Videospielen, festzustellen. Zur Erfassung dieser wurde Literatur aus den Bereichen der Kunst, des Films und der Videospiele herangezogen. Als Gegenstand der Analyse diente eine Auswahl von drei Spielen, die auf die Verwendung und emotionale Wirkung der zuvor gelisteten Elemente untersucht wurden. Die Arbeit ist für Spielentwickler in Bereichen der visuellen Darstellung sowie im Game Design interessant.
Das folgende Werk behandelt die Vererbung epigenetischer Modulationen der menschlichen DNA und der daraus resultierenden Beeinflussung der Schuldfähigkeit und Verurteilungswürdigkeit eines erwachsenen Straftäters. Das Hauptaugenmerk soll dabei darauf liegen, herauszufinden, ob ein Mensch durch seine epigenetische Veranlagung dazu getrieben werden kann, eine Straftat zu begehen und inwiefern dies dessen Schuldfähigkeit und eine Verfolgung durch das deutsche Rechtssystem vermindert. Zusätzlich wird über den Aspekt der Willensfreiheit eines Menschen als Voraussetzung für dessen Schuldfähigkeit und für das Fortbestehen des deutschen Strafrechts diskutiert.
Die PCR-basierte Ig/TCR-Klonalitätsanalyse bei Lymphomen wurde vom EuroClonality/BIOMED-2 Netzwerk standardisiert und erlangte den Weltstandard in der Routine Diagnostik. In dieser Arbeit wird ein PCR-basiertes Ig/TCR-Klonalitätsassay, basierend auf den Standard PCR-Protokollen, Primer-Sets und Richtlinien des Netzwerks entwickelt. Die PCR-Produktanalyse wird mithilfe des
Agilent 2100 Bioanalyzers (Mikrokapillar Elektrophorese) durchgeführt. Ziel ist es die hier entwickelte Methode in der Zentrum für Diagnostik GmbH am Klinikum Chemnitz für die Diagnose maligner B- und T-Lymphome an menschlichen FFPE-Gewebeproben zu etablieren. Dazu wird zunächst eine Optimierung der Probenvorbereitung, DNA-Aufreinigung und Multiplex PCR vorgenommen, um zuverlässige Ergebnisse sicherzustellen. Anschließend werden insgesamt 20 FFPE-Gewebeproben (13 B-Zell-Proben und 7 T-Zell-Proben) bezüglich ihrer Klonalität (monoklonal oder polyklonal) untersucht, da so die Differenzierung zwischen benignen (polyklonalen) und malignen (monoklonalen) Zellpopulationen möglich ist. Die erhaltenen Ergebnisse werden mit denen der Fremdbefunde abgeglichen, um die Genauigkeit beurteilen zu können. Zuletzt wird die Ig/TCR-Klonalitätsanalyse nach Standards wie Richtigkeit, Präzision und Sensitivität validiert.
Die vorliegende Bachelorarbeit gibt einen Überblick über die Zusammenhänge von Tokenaktivitäten und Social Media-Aktivitäten am Beispiel dreier Tokens. Dafür wurden spezifische Merkmale der jeweiligen Aktivitäten automatisiert und manuell erfasst und anschließend einer Korrelationsanalyse unterzogen. Die so erhaltenen Werte wurden danach auf ihre Ausprägungen hin untersucht und abschließend auf ihre Aussagekraft im Bezug auf die Hypothesen dieser Arbeit analysiert. Die Basis der Untersuchungen bilden Abhandlungen von Kim et. al., Garcia et. al. und Mai et. al. zu den Zusammenhängen zwischen Kryptowährungen und Social Media. Durch die Erweiterung ihrer Hypothesen auch auf Kryptotokens wurden sich neue Erkenntnisse über die Zusammenhänge erhofft, welche letztendlich in Teilen den Vermutungen entsprachen.
Die vorliegende Bachelorarbeit befasst sich mit der Expression sowie der Analyse der Expressionseffizienz und Aufreinigung klonierter chimärer rekombinanter Antikörper mit dem Ziel der Entwicklung eines Vektorbaukastensystems zur Produktion von Antikörpern unterschiedlicher Spezies. Zu diesem Zweck wurde die Zelllinie MEXi-293E mit verschiedenen Expressionsplasmiden transfiziert und nachfolgend wurden Einzelklone isoliert. Die Überstände der Einzelklone wurden mit verschiedenen Methoden auf die Funktionalität und Menge der in ihnen befindlichen Antikörper hin analysiert. Weiterhin wurden die im Überstand befindlichen Antikörper affinitätschromatographisch aufgereinigt.
In dieser Bachelorarbeit wird der Messengerdienst WhatsApp auf Mobilgeräten mit Android-Betriebssystem aus digitalforensischer Perspektive beleuchtet. Dazu werden technische Aspekte der Funktionsweise sowie von der Anwendung auf dem Gerät gespeicherte Dateien und die enthaltenen forensischen Artefakte ebenso diskutiert wie mehrere Möglichkeiten, WhatsApp betreffende Daten zu extrahieren. Des Weiteren werden sowohl das WhatsApp-interne als auch das Android-Systemlog analysiert, um den erstellten Einträgen die zugrunde liegenden Nutzeraktivitäten zuordnen zu können. Anschließend wird ein Programm vorgestellt, das die gewonnenen Erkenntnisse nutzt, um automatisiert aus den gegebenen Logdateien Ereignisse zu extrahieren und aufzubereiten.
Die Arbeit soll für forensische Untersuchungen, bei denen WhatsApp eine Rolle spielt, sowohl die Informationen als auch ein Werkzeug bereitstellen, mit dem die Aktivitäten des Nutzers nachvollzogen und wichtige Spuren gefunden werden können.
Diese Bachelorarbeit befasst sich mit der von MEGWARE GmbH gestellten Aufgabe der Entwicklung eines automatisierten Testsystems für das Softwareprodukt ClustWare. Dabei werden nach der theoretischen Betrachtung des Continuous Integration- und Testprozesses diese mit GitLab auszugsweise implementiert. Innerhalb dieses Ablaufes erfolgt die Nutzung von Docker im Rahmen des automatisierten Buildsystems sowie einer prototypischen Testsuite. Diese beinhaltet sowohl eine grundlegende Abdeckung mittels Smoketest als auch eine exemplarische programmierte Umsetzung durch Selenium. Entsprechend werden Probleme und kritische Abschnitte für die erstmalige Einrichtung betrachtet und näher untersucht.