Refine
Document Type
- Bachelor Thesis (703)
- Master's Thesis (180)
- Diploma Thesis (56)
Year of publication
Keywords
- Computerforensik (56)
- Softwareentwicklung (52)
- Computersicherheit (48)
- Videospiel (45)
- Maschinelles Lernen (44)
- Blockchain (25)
- Computerspiel (23)
- Datensicherung (21)
- Virtuelle Realität (18)
- Programmierung (17)
Institute
- Angewandte Computer‐ und Biowissenschaften (939) (remove)
In dieser Arbeit wird das Verhältnis des Datenschutzes in Europa im Jahr 2015 während der Euro Krise anhand der bevorstehenden Einführung der Datenschutz-Grundverordnung
verglichen. Es wird ein Vergleichsrahmen aus der geltenden Richtlinie und der zukünftigen Datenschutzgrundverordnung erstellt und eine Auswahl an Ländern mit dieser Richtlinie verglichen. Ziel ist es den Stand der einzelnen Länder im Europäischen Kontext zu vergleichen.
Die Aufgaben dieser Bachelorarbeit sind sowohl die Behandlung der wichtigsten theoretischen Grundlagen von Bitcoin, als auch die Konzeption und Entwicklung eines Programmes für die Verfolgung von Bitcoins. Es werden dabei die anzuwendenden Kriterien untersucht und anschließend die Konzeption und Implementierung beschrieben. Abgeschlossen wird die Arbeit mit dem Test des Programms und einer Auswertung der Nützlichkeit bzw. Anwendbarkeit dieses Programms.
Die vorliegende Arbeit befasst sich mit der Analyse der Microservice-Architektur
und wie diese in heterogene Infrastrukturen integriert werden kann. Dazu wird
neben der theoretischen Betrachtung auch ein Konzept auf Grundlage einer Erstimplementierung von Microservices erstellt. Zudem beinhaltet die Arbeit eine prototypische Lösung am praktischen Beispiel.
Tokengestützte Authentifizierung ist allgegenwärtig. Chipkartensysteme sind in vielen Branchen üblich oder sogar vorgeschrieben. Ein einfaches Passwort reicht häufig nicht mehr für Firmenarbeitsplätze mit großer Verantwortung aus, um den Zugang zu sichern. Die Lösung liegt häufig in der Verwendung von Smartcards oder Security-Tokens, die eindeutig identifizierbar und nicht kopierbar sind, und einen Zugang nur bei Befugnis gewährleisten. Digitronic entwickelte mit Secure Logon eine Software für Windowssysteme, die genau diese Funktionalitäten bereitstellt.
Da jedoch in einer Firma häufig unterschiedliche Betriebssysteme zur Anwendung kommen ist eine reine Windowsentwicklung, trotz hohen Marktanteils, unflexibel. Daher ist es Ziel dieser Bachelorarbeit, einen tiefen Einblick über die entsprechenden Authentifizierungsmöglichkeit und entsprechende Konfiguration im Feld von GNU/Linux zu geben. Auch soll ein Leitfaden für eine Portierung einer bestehenden Software gegeben werden.
Mit Hilfe des Enzyms Kollagenase ist es möglich, ein etabliertes Kollagen-Hydrogel vollständig zu dissoziieren. Welche Auswirkungen dieser Prozess auf die darin befindlichen, 3-dimensionalen L929-Zellen hat, sollte während der Bachelorarbeit untersucht werden. Neben der Beobachtung, ob sich das Hydrogel komplett auflöst, wurden Veränderungen der Zellmorphologie, der Zellzahl und der Zellvitalität dokumentiert. Um die direkte Wirkung des Enzyms auf die Fibroblasten beurteilen zu können, wurden außerdem 2-dimensional kultivierte L929-Zellen mit Kollagenase versetzt und ebenfalls hinsichtlich der bereits genannten Aspekte untersucht.
Live-Updates von Oracle-Linux-Servern mit Ksplice und Yum : Untersuchung der Systemstabilität
(2015)
Server müssen hohen Sicherheitsansprüchen genügen und dürfen in der Praxis so wenig wie möglich ausfallen. Dabei ist bereits die Zeit für eine Wartung ein hoher Kostenfaktor. Systemaktualisierungen sollten so schnell wie möglich eingespielt werden, am besten während des Produktivbetriebs. Diese Arbeit setzt hier an und untersucht die zwei Programme Ksplice und Yum. Diese Aktualisierungssysteme für Oracle-Linux sollen das Betriebssystem aktuell halten ohne es abschalten zu müssen.
Ziel dieser Arbeit ist es, eine Aussage darüber treffen zu können, ob mit den zwei Programmen Ausfallzeiten für Wartungsarbeiten minimiert werden können. Hierzu wird die Praxistauglichkeit der Programme erprobt und nach Schwächen gesucht, welche die Serverstabilität gefährden. Es werden die Funktionsweisen analysiert und die gewonnenen Erkenntnisse durch praktische Tests untermauert.
Entwicklung eines Prototypen zur multimedialen Anwendung Detox unter der Verwendung von JavaFX
(2015)
Innerhalb des Bachelorprojekts wird der Prototyp zur multimedialen Anwendung Detox entwickelt, indem JavaFX verwendet wird. Detox verbindet Roman mit Film, Hörspiel und einer Visualisierung durch Bilder und bietet dabei eine neue Form des digitalen Romans. Es wird Grundlagenwissen in der Softwareentwicklung sowie in der Programmierung vermittelt. Zusätzlich wird der gesamte Entwicklungsprozess der Anwendung aufgezeigt und eine Einführung in JavaFX gegeben.
Die vorliegende Arbeit soll einen Überblick über den Nachweis des Bakteriums Clostridium perfringens in Rohwasserproben geben. Für die Identifizierung dieser
Bakterienart dienen die Nachweismethoden nach ISO 14189 und mCP nach Trinkwasserverordnung 2001.
Des Weiteren werden die erforschten Ergebnisse der beiden Verfahren gegenüber gestellt und miteinander verglichen.
Die Lern- und Gedächtnisforschung gehört zu den wichtigsten Forschungsgebieten. Die Neusynthese von Proteinen, welche im Laufe des Alterungsprozesses abnimmt, spielt dabei eine wichtige Rolle für die Lernprozesse. Für die Proteinbiosynthese ist der eukaryotischer Elongationsfaktor 2 (eEF2)-Signalweg essentiell. Dieser ist für die Regulation des eEF2 verantwortlich. Der eukaryotische Elongationsfaktor 2 liegt im Alter vermehrt in der inaktiven Form vor, was ein potenzieller Grund für die verminderte Proteinbiosyntheserate sein könnte. Mögliche Untersuchungsansätze bieten hierfür bestimmte Pharmaka die einen Einfluss auf den eEF2-Signalweg haben. Aber auch andere Wirkstoffe, die keinen Einfluss auf den eEF2-Signalweg haben, könnten für die Proteinsynthese förderlich sein.
In dieser Arbeit wurden ausgewählte Wirkstoffe und deren möglicher Einfluss auf die Proteinsynthese sowie den Alterungsprozess auf Neuronenkulturen untersucht. Dies geschah mittels der Immunozytochemie/ Immunofluoreszenz, bioorthogonal non-canonical amino acid tagging (BONCAT) und fluoreszent non-canonical aminoacid tagging (FUNCAT) sowie der Western-Blot Analyse. Für diese Arbeit wurden unterschiedlich lang kultivierte primäre kortikale Neuronenkulturen verwendet.
Die in dieser Arbeit aufgelisteten Ergebnisse zeigen, dass die eingesetzten Wirkstoffe einen bestimmten Effekt auf die verwendeten primären kortikalen Neuronenkulturen besitzen. Weiterhin wurden in den 60 Tage alten Neuronen ein erhöhtes Signal de novo synthetisierter Proteinen in den dendritischen Spines festgestellt.
Jedoch war es mit den verwendeten Konditionen nicht möglich einen Eingriff in den eEF2-Signalweg aus zu üben. Nach den jeweiligen Stimulationen der eingesetzten Wirkstoffe, kam es weder zu einer Veränderung des eEF2-Signalwegs noch zu einer großen Veränderung der Proteinbiosynthese.
Diese Arbeit zeigt, dass die eingesetzten Wirkstoffe einen eventuell erhöhten Informationsaustausch bewirken. Des Weiteren wurde die Hypothese der im Alter abnehmenden Proteinbiosynthese bekräftigt.
In der vorliegenden Arbeit wird anhand der Entwicklung einer Software mit den Teilschritten Konzeption, Design und Prototypentwicklung ein Einblick in das Forschungsfeld der Kameras in Videospielen zu gegeben. Dabei werden die
Herausforderungen für Kameras in Sidescrollern erörtert. Anschließend werden verschiedene Sidescroller auf die Auswirkungen der Kamera auf das jeweilige Spiel hin
untersucht. Im praktischen Teil der Arbeit wird zunächst auf verschiedene Lösungsansätze für die Implementierung eines Kamerasystems eingegangen, bevor die Umsetzung detaillierter dargestellt wird. Abschließend wird das Ergebnis betrachtet.
Die vorliegende Arbeit befasst sich mit der Erstellung eines Patch Management-Konzeptes für Linux Server. Die Erstellung des Konzeptes basiert am Beispiel der Tirol Kliniken GmbH und soll in weiterer Folge im Unternehmen umgesetzt werden. In Zusammenhang mit den IT-Schutzzielen wird die Notwendigkeit dieser Schutzmaßnahme Patch Management erläutert und unter Berücksichtigung unternehmensspezifischer Gegebenheiten, eine geeignete Lösung erarbeitet. Ziel soll dabei sein, eine möglichst automatisierte Patch Management-Lösung zu realisieren.
Die vorliegende Arbeit befasst sich mit der grafischen Darstellung und dem Vergleich von Erzählstrukturen in modernen Computerspielen. Über eine empirische Analyse wird ermittelt, wie die jeweiligen Spiele aufgebaut sind und wo es zwischen diesen und ihren Genre Gemeinsamkeiten und Unterschiede gibt. Zur Analyse standen 34 Spiele aus 17 Subgenre und fünf Hauptgenre. Von allen Spielen wurde je ein Modell angefertigt und diese untereinander verglichen. Dabei wurde nach Gemeinsamkeiten in der Art und dem Aufbau der Strukturen gesucht, um so die Frage zu beantworten ob jedes Spiel, jede Art von Geschichte erzählen kann oder ob deren Erzählung abhängig ist von dem jeweiligen Genre des Spieles
In dieser Arbeit wurde das Insektizid Imidacloprid hinsichtlich seiner Toxizität auf die Kompostwurmarten Eisenia fetidaund Eisenia andreiuntersucht. Zur Ermittlung der akuten und chronischen Toxizität wurden standardisierte Labortests nach den Richtlinien der OECD und ISO verwendet. Unter Exposition von Imidacloprid mit verschiedenen Konzentrationsstufen wurden Verhaltensänderungen, Biomasseverlust, Verringerung der Reproduktionsleistung und die Mortalitätsrate untersucht. Nach statistischer Auswertung wurden damit verschiedene Dosis-Wirkungs Kurven erstellt und die toxikologischen Kennwerte LC50, EC50, NOEC und LOEC ermittelt.
In dieser Arbeit erfolgt eine Betrachtung der Speichertechnologie Object Storage sowie eine vergleichende Analyse verschiedener Lösungsansätze von OpenStack sowie EMC Corporation. Zu Beginn werden allgemeine Aspekte zur Funktionsweise von Objektspeicher in den Vordergrund gestellt, um Anhaltspunkte für die Bearbeitung und Bewertung der konkreten Systeme zu gewinnen. Zudem erfolgt eine Gegenüberstellung dieser Technologie mit Block- und Dateispeicher.
Die anschließende Detailbetrachtung der Lösungen befasst sich mit OpenStack Swift, Swift-Stack sowie EMC ViPR, ECS und Isilon. Auf Basis eines gestellten Anforderungsprofiles werden zudem zwei Beispielarchitekturen eines Object Storage Clusters vorgestellt. Abschließend erfolgt auf Basis definierter Bewertungskriterien ein direkter Vergleich der betrachteten Systeme sowie eine darauf aufbauende Empfehlung zur Auswahl eines Systems.
In vielen Einsatzgebieten ist die Benutzung von elektronisch schwenkbaren Antennen vorteilhaft. Bei diesen so genannten Phased-Array-Antennen werden einzelne Strahlerelemente so phasenverschoben angesteuert, dass sich die gewünschte Abstrahlrichtung der Gesamtantenne ergibt. Für die Raumfahrtanwendung wurde eine neue Antenne entwickelt, die eine elektronische Ausrichtung mit flüssigkristall-gefüllten Phasenschiebern realisiert. Um die Kristalle durch ein elektrisches Feld auszurichten werden einstellbare, hohe elektrische Spannungen benötigt.
Diese Arbeit beschäftigt sich mit der Entwicklung einer Ansteuerelektronik für diese Anwendung.
Hierzu wurde ein bestehendes System analysiert und Verbesserungsvorschläge erarbeitet. Diese Vorschläge wurden nach relevanten Kriterien bewertet, und eine Variante wurde ausgewählt und als Breadboard-Modell umgesetzt.
Produktion von rekombinanten
Proteinen zur Verwendung in
Reagenzien für die in-vitro
Diagnostik
(2015)
Hefen sind widerstandsfähig, haben eine vergleichsweise hohe Reproduktionsrate und bieten eine Vielzahl posttranslationaler Modifikationen und Sekretionswege. Aus diesem Grund wurde die Hefe P. pastoris als Expressionswirt ausgesucht, um das Enzym Cholesterinesterase rekombinant herzustellen. Dafür soll ein Klon mit hoher Enzymausbeute erzeugt werden. Zusätzlich musste das optimale Kultivierungsmedium gefunden, die Langzeitstabilität ermittelt und gleichzeitig die Funktionalität in einem Reagenz nachgewiesen werden, in dem es später als eine Komponente eingesetzt werden soll. Es wurden die drei Stämme von P. pastoris X33, SMD1168H und KM71H eingesetzt, um jeweils die Plasmide pGAPZαA-COE1 und pGAPZαA-COE1-6H mithilfe der Elektroporation in die Stämme zu transformieren. In der Zelle wird das Plasmid durch homologe Rekombination in das Hefegenom integriert. Zum
Linearisieren der Plasmid-DNA wurden die Restriktionsenzyme AvrII und BspHI eingesetzt. Daraus ergab sich die Kombination aus Stamm, Restrkitionsenzym und Konstrukt, welche den Klon mit der höchsten Ausbeute erzeugt. So wurde der Klon E1 mit einer Enzymaktivität von 8,2 U/mL erzeugt, indem das Konstrukt pGAPZαA-COE1-6H mit dem Restriktionsenzym AvrII in den Stamm KM71H transformiert wurde. Die Enzymaktivität wurde mit einer Methode ermittelt, die auf der Reaktion des Enzyms mit p-Nitrophenoloctanoaten basiert. Im weiteren Verlauf wurde das Kultivierungsmedium für den Klon optimiert. Von den drei eingesetzten Medien SYN6, FM22 und YNB stellte sich SYN6 als das Medium mit der höchsten Ausbeute heraus.
Eine weiterführende Variierung der CaCl-Konzentration im Kultivierungsmedium ergab eine optimale Konzentration von 1%, bei gleichzeitiger Erhöhung der Langzeitstabilität.
Zusätzliche Versuche zur Erhöhung der Langzeitstabilität mit Zusätzen wie RSA, Glycerin oder EDTA ergaben, dass die Langzeitstabilität am besten ohne jegliche Zusätze garantiert werden kann. Weiterführend muss über ein Scale-up Prozess
nachgedacht werden und parallel dazu ein downstream-Prozess entwickelt werden, um die steigende Menge an Kulturüberstand verarbeiten zu können.
Inhalt dieser Bachelorarbeit ist die Etablierung des Tropical Chamber-Tests zur
Bestimmung der Schimmelpilzfestigkeit von Leder und Leder-Halbfabrikaten. Sowohl
der Aufbau, als auch die Durchführung eines Tropical Chamber Tests sind Gegenstand
dieser Arbeit. Vergleichend dazu wird die TEGEWA-Methode hinzugezogen. Die
Ergebnisse und Vorteile des Tropical Chamber-Tests werden gegenüber der TEGEWA-Methode erläutert.
Systematische Analyse und Validierung von Test-Aufgaben für multikriterielle Optimierungsverfahren
(2016)
Bei der Entwicklung von modernen Verbrennungsmotoren spielen Softwareanwendungen zur Berechnung und Simulation eine grundlegende Rolle. Mit Blick darauf, dass die Anforderungen stetig wachsen und die Entwicklungszeiten kürzer werden, wird der Einsatz vonmathematischen
Optimierungsverfahren immer wichtiger. Zum Test und zur Bewertung der Verfahren existiert eine Vielzahl von analytischen Testaufgaben. In dieser Arbeit werden Test-Aufgaben für die multikriterielle Optimierung vorgestellt und auf die Schwierigkeiten, die sie Optimierungsverfahren bereiten können, untersucht. Anschließend wird eine Auswahl der Test-Aufgaben ausführlich getestet und die Ergebnisse ausgewertet.
Kreation von glaubwürdigen und interessanten Spielwelten mit dem Fokus auf Immersion und Leveldesign
(2016)
Diese Bachelorarbeit bietet einen Leitfaden für die Produktion von glaubwürdigen und interessanten offenen Spielwelten. Dabei werden im theoretischen Teil Schwerpunkte für die Produktion von offenen Spielwelten ermittelt. Im praktischen Teil wird mithilfe einer Umfrage versucht, den theoretischen Teil zu bestätigen.
Gegenstand dieser Arbeit ist die in-vitro Kultivierung von Petunia hybrida ‘Mitchell‘. Ziel der Untersuchung ist einerseits die Etablierung eines in-vitro Systems mit Petunien. Andererseits soll die Auswirkung einer warm-Dunkelbehandlung auf die Adventivwurzelbildung sowie den Kohlenhydratmetabolismus auf die Mutante PDR1 und DAD1 festgestellt werden.
In der vorliegenden wissenschaftlichen Arbeit wird der Einsatz von digitalen Spielen in der schulischen wie berufliche Aus- und Weiterbildung untersucht. Dabei wird insbesondere die Methode des Digital Game-Based Learnings betrachtet. Grundlage der Analyse bilden zahlreiche Fachliteratur, diverse Studien und aktuelle Erfahrungsberichte, anhand derer sowohl die positive Wirkung als auch die pädagogische Bedeutung von Computerspielen belegt wird. Mithilfe von zusätzlichen Experteninterviews werden neben den Möglichkeiten und Herausforderung digitaler Spiele abschließend eine Prognose für deren Einsatz als Lernmedium in deutschen Schulen und Konzernen erarbeitet.
Die vorliegende Arbeit befasst sich mit der Erarbeitung von konkreten Herangehensweisen und Software-Architekturen für die Entwicklung der Software von eingebetteten Systemen. Es werden die Themen Objektorientiertes Programmieren, Programmablauf, Konfiguration, Persistenz, Benutzerschnittstelle, Berichte, Kommunikation, und Fehlermanagement behandelt.
Ziel dieser Diplomarbeit ist es, eine Übersicht über einsetzbare Systeme zur stationären und mobilen Einzelarbeitsplatzabsicherung nach DGUV 139 in einem
Chemiewerk zu erstellen. Dabei sollen die Vor- und Nachteile der Systeme analysiert und nach technischen und wirtschaftlichen Kriterien bewertet und verglichen werden. Für eventuell bestehende Schwächen sollen Lösungsvorschläge zur Beseitigung gefunden werden.
Die vorliegende Arbeit befasst sich und formuliert funktionale Anforderungen an die neu zu beschaffende Stationsleittechnik, Fernwirktechnik und Netzleittechnik für den Einsatz im Umspannwerk, Trafostationen und Leitwarten. Des Weiteren
werden Forderungen an die einzusetzenden Komponenten bzw. Systeme hinsichtlich der „IT-Security“ dargelegt.
Das HIGS-Projekt (Hochintegrierte Ganzzellsensoren für die Umwelt- und Medizintechnik) beschäftigt sich als Teil des BioSAM-Verbunds (Biologische Sensor-Aktor-Systeme auf der Basis von funktionalisierten Mikroorganismen) mit der Entwicklung von Ganzzellsensoren, die in der Umwelt- und Medizintechnik Einsatz finden sollen. In diesen Sensoren sollen mit Hilfe von gentechnisch veränderten Hefezellen biomolekulare und nichtbiologische Analyten erkannt werden. Die Besonderheit hierbei ist, dass sich die Zellen in einem Mikrofluidiksystem befinden sollen, welches den Einsatz in konventioneller Arbeitsumgebung ermöglicht, ohne die Bestimmung des Sicherheitsstandards S1 zu verletzen [o.V., 2014]. Als Versuchsanalyt während der Entwicklung dient das Pheromon, welcher das Wachstum der Hefezellen des Kreuzungstyps a hemmt und in genetisch modifizierten Modellhefen die Produktion eines rot fluoreszierenden Proteins bewirkt. Im späteren fertigen Biosensor soll der Arzneimittelwirkstoff Diclofenac detektiert werden. Nachgewiesen wird der Analyt über die Fluoreszenz der Hefezellen, welche durch den Analyten ausgelöst wird. Bei Diclofenac handelt es sich um einen schmerzlindernden Wirkstoff, welcher häufig in frei verkäuflichen schmerzlindernden Medikamenten enthalten ist. Da allerdings ein Großteil des Schmerzmittels wieder ausgeschieden oder von der Haut abgewaschen wird, gelangen größere Mengen des Diclofenac in die Abwässer und somit in das Ökosystem.
Konzeption, Planung und prototyptechnische Umsetzung einer Schnittstelle für Laborautomatisierung
(2016)
Im Rahmen dieser Arbeit soll eine leistungsfähige Softwareschnittstelle für die Kommunikation zwischen einem Laborinformations-, Prozessmanagementsystem und einem Steuerprogramm von komplexen Laborautomaten entwickelt werden. Insbesondere soll diese Schnittstelle für die effiziente und kontrollierte Routinebearbeitung von Laborproben an flüssigkeitsbewegenden Laborautomaten verwendet werden. Ziel des Laborinformationssystems ist eine schrittweise nachvollziehbare Probenbearbeitung. Für deren Umsetzung eine Untersuchung der gegebenen Möglichkeiten unter Beachtung des Programmieraufwands beider Seiten notwendig ist, wobei der Eigenanteil der Programmierung nur auf der Automatenseite liegt.
Cancer is one of the main causes of death in developed countries, and cancer treatment heavily depends on successful early detection and diagnosis. Tumor biomarkers are helpful for early diagnose. The goal of this discovery method is to identify genetic variations as well as changes in gene expression or activity that can be linked to a typical cancer state.
First, several cancer gene signaling pathways were introduced and then combined. 27 candidate genes were selected, through the analysis of several data sets in the GEO database, a few expression difference matrices were established. Those candidate genes were tested in the matrices and found five genes PLA1A, MMP14, CCND1, BIRC5 and MYC that have the potential to be tumor biomarkers. Two of these genes have been further discussed, PLA1A is a potential biomarker for prostate cancer, and MMP14 can be considered as a biomarker for NSC lung cancer.
Finally, the significance of this study and the potential value of the two genes are discussed, and the future research in this direction is a prospect.
Standardsoftware wie Enterprise Resource Planning Systeme bieten eine ganzheitliche Unterstützung der Wertschöpfungsprozesse eines Anwenderunternehmens. Die darüber abgebildeten Geschäftsprozesse spiegeln im Allgemeinen das Wissen eines Entwicklerunternehmens über die Vorgehensweisen und Methoden innerhalb einer bestimmten Branche wider. In der heutigen Zeit gehören Enterprise Resource Planning Systeme zur softwaretechnischen Grundausstattung für die überwiegende Mehrzahl Kleiner und Mittlerer Unternehmen. Deren primärer Wettbewerbsvorteil liegt hierbei vor allem in ihrer Individualität, welche durch ein Enterprise Resource Planning System zu unterstützen ist. Diesbezügliche Anpassungen des Systems sind aufgrund seiner Komplexität häufig sehr kostenintensiv und übersteigen nicht selten das Budget eines Kleinen und Mittleren Unternehmens.
Workflow-Management-Systeme bieten eine einfache Möglichkeit die internen Geschäftsprozesse eines Anwenderunternehmens kostengünstig über ein Enterprise Resource Planning Systems abzubilden. Gleichzeitig erlauben sie die Steuerung der modellierten Arbeitsabläufe.
Diese Arbeit beschäftigt sich daher mit der Integration eines Workflow-Management-Systems in ein bestehendes Enterprise Resource Planning System. Das Integrationskonzept bezieht sich dabei ausschließlich auf Client-Server- Architekturen. Auf Basis einer IST-Analyse wird dabei ein Integrationskonzept für eine lose Kopplung beider Systeme entwickelt. Im Ergebnis soll dies einen einfachen Austausch des Workflow-Management-Systems garantieren und dessen Funktionen innerhalb des Enterprise Resource Planning System bereitstellen.
Schlüsselwörter: Workflow Management, Workflow-Management-System, Enterprise Resource Planning, Integration, Integrationskonzept, Kleine und Mittlere Unternehmen
Im Rahmen dieser Diplomarbeit wird das IT-Service Management und im Speziellen der Bereich Servicebetrieb, für den Einsatz in Unternehmen mit großen, geografisch verteilten IT- Landschaften, nach aktuellen Standards durchleuchtet und bewertet. Auf der Basis der gewonnenen Erkenntnisse wird ein Konzept für eine Lösung erstellt, welche den Servicebetrieb für die angesprochenen Unternehmen, hinsichtlich Bearbeitungszeit von Störungsbehebungen und Einsatz von Arbeitskraft, optimieren soll. Das erarbeitete Konzept wird anschließend als Prototypensystem implementiert und bewertet.
Im Rahmen der Untersuchungen für die vorliegende Bachelorarbeit wurden in fünf einstufigen Biogasreaktoren Maissilage vergoren. Die Zugabe von Harnstoff sollte eine Prozessstörung induzieren. Zur Überwachung des Prozessverlaufes erfolgten die gängigen Analysen (pH, FOS/TAC, NH4-N, GC etc.). Zusätzlich sollten Gasproben aus den Reaktoren entnommen und mittels IRMS analysiert werden, um das Isotopenverhältnis des gebildeten Biogases zu untersuchen.
Die anfallende Biomasse der Wasserpflanze Elodea nuttallii sollte als Mischsilage in zwei Fermentern vergoren werden. Zur Silage-Herstellung wurden verschiedenste Behandlungsarten ausprobiert und die Silagen anschließend analysiert. Aus diesen wurde eine Mischsilage ausgewählt, welche in einem kontinuierlichen Vergärungsprozess untersucht wurde.
Hierbei sind die Prozessstabilität (FOS, FOS/TAC, Ammoniumstickstoff, pH und GC) sowie der Biogasertrag genauer betrachtet worden. Es konnten somit Aussagen zur Funktionalität und Effizienz der Elodea nuttallii als Co-Substrat bei der Herstellung von Biogas getroffen werden.
The loss of photoreceptors is a major course for visual impairment and blindness with no cure currently established. Photoreceptor replacement into mouse models of retinal degeneration is currently investigated as a potential future therapy. To evaluate visual function in mice before and after treatment two vision-based behavioral tests (optomotor tracking and the light/dark box) were investigated including their feasibility to distinguish between rod and cone photoreceptor function. Both methods turned out to be an objective and reliable readout for vision ability in wildtype mice and mice with vision impairment due to retinal degeneration. The capability of the methods to assess slight vision improvements have to be further evaluated.
Therefore options for improvement of the established tests and an idea for a new test paradigm have been introduced.
Die vorliegende Bachelorarbeit gibt einen Überblick über die aktuellen Konzepte modularer Programmierung und deren Umsetzung mit JavaScript. Hierfür werden einige JavaScript Frameworks für die Erstellung einer einfachen clientseitigen Anwendung geprüft und unter verschiedenen Kriterien ausgewertet. Als Basis dieser Arbeit dienen Fachliteratur, die Dokumentation der jeweiligen Frameworks und die persönlichen Erkenntnisse und Erfahrungen des Authors. Der Verfasser erhofft sich dadurch einen Erkenntnisgewinn zur sauberen und modularen Programmierung mit JavaScript und wie diese bei kleinen und clientseitigen Anwendungen durch Frameworks erleichtert werden kann.
Diese Bachelorarbeit erforscht den Videospielentwicklungsprozess und dessen fallspezifischen Schwierigkeiten für Ein-Mann-Spielentwickler. Mithilfe der Fachliteratur wird die konventionelle Konstellation in der Videospielindustrie für mehrköpfige Teams dargestellt. Die davon hergeleiteten, potentiell kritischen Gegebenheiten der Videospielentwicklung für Ein-Mann-Spieleentwickler werden anhand von Expertenaussagen aufgelöst und mit denen für Entwicklerteams verglichen. Die Analyse zeigt, dass trotz umfassenderen Kompetenzansprüchen und höheren Belastungsquellen die Ein-Mann-Spieleentwicklung ein verhältnismäßig motivierteres Produktivitätspotential besitzt.
Die vorliegende Bachelorarbeit befasst sich mit aktuell existierenden Methoden zur Reduzierung des Polycounts eines 3D-Models. Ziel der Arbeit war es herauszuarbeiten, wie sich ausgewählte Remeshing-Methodiken für verschiedene Arten von Ausgangsmodellen eignen und diesbezüglich Empfehlungen auszusprechen. Im Rahmen dessen, wurde ein Maßstab zur Bewertung der Ergebnisse konzipiert, der eine Beurteilung der resultierenden Modelle anhand festgelegter Qualitätskriterien ermöglicht.
Das Ziel der Diplomarbeit ist die Datenbankentwicklung und Implementierung der Messgeräte-Datenimport Schnittstelle. Der Benutzer soll für simple Messgerätedateien selbst eine Importschnittstelle erstellen können.
Neben der Implementierung der Schnittstelle für den Import von
Messgerätedateien in die Labordatenbank soll auch eine graphisch aufbereitete Historie aller Importe sowie eine Verwaltung der bereits erstellten Schnittstellen umgesetzt werden.
Die vorliegende Bachelorarbeit widmet sich der Implementierung einer Lösung für den konfigurationslosen Datenaustausch zwischen iOS und Mac OS X. Hierbei soll ein Framework entwickelt werden, das in iOS-Applikationen integriert werden kann. Dadurch wird ermöglicht, eine Verbindung zum Entwicklerwerkzeug SimPholders aufzubauen und mit diesem Daten auszutauschen.
Im Laufe der Arbeit wird dabei auf alle Schritte vom Verbindungsaufbau, über die Datenübertragung bis hin zur Anzeige der Daten in SimPholders sowie eine Beispiel für die Installation des Frameworks in eine iOS-Applikation eingegangen.
Schwerpunkte
- Planung und Implementierung einer Lösung zur konfigurationslosen Kommunikation zwischen iOS und OS X über das Multipeer Connectivity Framework
-Untersuchung alternativer Technologien zum Informationsaustausch zwischen Geräten
- Performance-Analyse zweier spezieller Serialisierungstechnologien in Hinsicht auf Geschwindigkeit und Größe
Genetic sex determination of ancient DNA samples based on one simple mathematical algorithm, which considers the number of mapped reads on autosomal, X, and Y chromosomes. The algorithm is implemented in one command line tool - SiD. SiD is used to deter-mine the sex of 16 samples, which have been shotgun sequenced and captured with a 1240k panel.
Die vorliegende Arbeit betrachtet den Stellenwert von Realismus in Animationsfilmen. Unter Berücksichtigung der gestalterischen Darstellung der Figuren, der Handlung und der visuellen Gestaltung des Animationsfilmes, wird bewertet, wie wichtig die einzelnen Faktoren eines Filmes im Bezug auf ihre realistische Wirkung auf den Zuschauer sind.
In dieser Arbeit wurde der Einfluss des orphanen Kernrezeptors Peroxisom-Proliferatoraktivierte Rezeptor des Subtyps Gamma (PPARγ) auf die kardiale Differenzierung in vitro untersucht. Hierfür wurde die murinen embryonale Stammzelllinie CGR8 und das Modellsystems Embryoid Body verwendet. Zur Beantwortung der Fragestellung wurden einerseits pharmakologische Inkubationsexperimente mit spezifischen Agonisten sowie Antagonisten realisiert. Andererseits wurde das Differenzierungsverhalten vergleichend in einer PPARγ-Knockdown-Zelllinie betrachtet, welche durch eine stabile Herunterregulation des Rezeptorsubtyps gekennzeichnet ist.
Das Ziel dieser Bachelorarbeit war die Analyse der organischen und anorganischen Inhaltsstoffe der höheren Wasserpflanzen Elodea nuttallii und Myriophyllum heterophyllum. Dazu wurden mithilfe von Atomspektrometrie und Gaschromatographie mit Massensektrometer-Kopplung Analysen durchgeführt. Es konnten interessante und für eine weitere Verwendung der Biomasse wertvolle Inhaltsstoffe identifiziert werden. Vor allem Linolsäure und α-Linolensäure für eine ernährungsphysiologische Verwendung, als auch β-sitosterol für pharmazeutische Zwecke konnten nachgewiesen werden.
Diese Bachelorarbeit behandelt die Entwicklung des Film Noir, von seinen Vorläufern bis hin zu seinen Nachfolgern beziehungsweise Weiterentwicklungen im Neo Noir. Unter Neo Noir werden dabei sowohl Filme als auch andere narrative Medien verstanden, die sich inhaltlich mit entsprechenden Thematiken befassen. Der Fokus liegt dabei auf modernen Videospielen und deren Vergleich mit zum Neo Noir gehörigen Spielfilmen. Untersucht werden vor allem die zentralen Motive von Noir-Erzählungen. Die Analyse findet anhand von je zwei besonders exemplarischen Filmen und Spielen statt. Dabei baut sie auf Kategorien auf, die zuvor unter Berücksichtigung der Fachliteratur erarbeitet wurden.
Ziel dieser Arbeit ist eine existierende Benutzerführung, die auf einer Kombination von Maus und Tastatur basiert, auf ein Gamepad-Eingabegerät zu übertragen. Als Benutzerführung gilt hierbei sowohl das grafische User Interface als auch die haptische Bedienung. Als Gamepad gilt eine Variante mit 2 Thumbsticks, einem Directional-Pad und mindestens 8 zusätzlichen Buttons. Die dazu entstehenden Aufgaben teilen sich in Analyse der existierenden Bedienung, Konzeptionierung und Implementierung der neuen Steuerung auf. Im analytischen Teil wird untersucht, in welchen Situationen bestimmte Eingabearten getätigt werden.
Basierend auf der Analyse wird ein Konzept ausgearbeitet, um Funktionen der Software mit dem Gamepad abzubilden. Eine wichtige Limitierung dabei ist ein möglichst minimaler Eingriff in die existierende Nutzerführung und Oberflächengestaltung. Branchenübliche Bedienstandards für Gamepad User Interfaces werden dabei entsprechend berücksichtigt und dargelegt. In der Implementierungsphase wird das entworfene Konzept in die Software eingearbeitet. Im Vorfeld wird die programmiertechnische Struktur der existierenden Maus- und Tastatursteuerung untersucht. Basierend auf den Erkenntnissen wird ein Implementationskonzept entworfen und schlussendlich umgesetzt.
Die Bakterien Francisella tularensis sind die Erreger der Zoonose Tularämie. Eine bekannte und wichtige Unterart dieser ist die Bakterienspezies Francisella tularensis subsp. holarctica, welche auch als Typ B bezeichnet werden. Diese treten auf der ganzen nördlichen Hemisphäre und eben auch innerhalb Deutschlands auf. Es sind 3 bekannte Untergruppen des Typ B zurzeit bekannt, welche sich in genetischer Hinsicht zu einem geringen Teil unterscheiden. Um die Ausbreitung der Tularämie besser verstehen und Ausbrüche verhindern zu können, ist die Bestimmung des genauen Genotyps unabdinglich. 36 Isolate von Tieren aus Deutschland aus dem Jahr 2015 wurden mittels Real-time PCR genotypisiert, um anschließend die Verteilung der unterschiedlichen Genotypen in Deutschland mit Proben aus den vergangenen Jahren 2006 bis 2014 vergleichen zu können.
Ziel der vorliegenden Bachelorarbeit war es, ein Open-Source-Softwarepaket zusammen zu stellen, das zur computergestützten Tatortrekonstruktion verwendet werden kann. Dazu wurden verschiedene Add-ons für die Open-Source-Software Blender in ihrer Funktionsweise vorgestellt und anschließend miteinander verglichen. Hierbei wurde insbesondere auf Nutzerfreundlichkeit und Eignung zur Tatortrekonstruktion eingegangen. Anschließend wurde das daraus resultierende Softwarepaket zur Erstellung einer Tatortrekonstruktion anhand eines Fallbeispiels verwendet.
Ziel dieser Diplomarbeit ist es, eine geeignete Methode zur Validierung von Laserpulsen mit einer Pulsdauer von 500ps bis maximal 10ns zu finden. Die Ergebnisse der Validierung der, von unterschiedlichen VCSEL (Vertical Cavity Surface Emitting Laser) Dioden, erzeugten Laserpulse soll als eine grundlegende Hilfestellung zur Entscheidungsfindung für die Wahl der richtigen VCSEL Diode dienen.
Zunächst wird auf die Theorie und Grundlagen von Laserpulsen sowie die wichtigsten Eigenschaften von VCSEL Dioden eingegangen. Danach folgen ein Vergleich verschiedener Ansätze zur Validierung sowie die Wahl einer konkreten Methode. In einem weiteren Kapitel wird näher auf die gewählte Methode und ihre Anwendung in der Praxis eingegangen. Die beiden letzten Kapitel befassen sich mit der Bewertung der erhaltenen Ergebnisse aus der praktischen Anwendung der gewählten Methode zur Validierung sowie einer Zusammenfassung beziehungsweise einem Ausblick.
Large bone defects are a major clinical problem affecting elderly disproportionally, particularly indeveloped countries where this population is the fastest growing. Current treatments include autologous and allogenous bone grafts, bone elongation with the Ilizarov technique, bone graft substitutes, and electrical stimulation. Each of these approaches enjoys varying degrees of success, however, each also has its associated problems and complications. A new, still experimental, treatment is Tissue Engineering that combines scaffolds, osteogenic stem cells and growth factors, and is showing encouraging early results in preclinical and initial clinical studies.
Electrical stimulation has been shown to enhance bone healing by promoting mesenchymal stem cell migration, proliferation, and differentiation. In the present study we combine Tissue Engineering with Electrical Stimulation and hypothesize that this combined approach will have a synergistic effect resulting in enhanced new bone formation. In our in vitro experiments we observed that the levels of electrical stimulation we tested had no cytotoxic effect, instead increased osteogenic differentiation, as determined by enhanced expression of the osteogenic marker, Alkaline Phosphatase. These findings support our hypothesis by demonstrating that in the tissue-engineering environment electrical stimulation promotes bone formation. The bioinformatics part of this project consisted of gene network analysis, identification of the top 10 osteogenic markers and analyzis of genegene interactions. We observed that in studies of stem cells from both human and rat the genes, BMPR1A, BMP5, TGFßR1, SMAD4, SMAD2, BMP4, BMP7, RUNX3, and CDKN1A, are associated with osteogenesis and interact with each other. We observed a total of 31 interactions for human and 29 interactions for rat stem cells. While this approach needs to be proven experimentally, we believed that these in vitro and in silico analyses could compliment each other and in doing so contribute to the field of bone healing research.
Classification of time series has received an important amount of interest over the past years due to many real-life applications, such as environmental modeling, speech recognition, and computer vision.
In my thesis, I focus on classification of time series by LVQ classifiers. To learn a classifiers, we need a training set. In our case, every data point in the training set contains a sequence (an ordered set) of feature vectors. Thus, the first task is to construct a new feature vector (or matrix) for each sequence.
Inspired by [2], I use Hankel matrices to construct the new feature vectors. This choice comes from a basic assumption that each time series is generated by a single or a set of unknown Linear Time Invariant (LTI) systems.
After generating new feature vectors by Hankel matrices, I use two approaches to learn a classifier: Generalized Learning Vector Quntization (GLVQ) and Median variant of Generalized Learning Vector Quantization (mGLVQ).
Stability of control systems is one of the central subjects in control theory. The classical asymptotic stability theorem states that the norm of the residual between the state trajectory and the equilibrium is zero in limit. Unfortunately, it does not in general allow computing a concrete rate of convergence particularly due to algorithmic uncertainty which is related to numerical imperfections of floating-point arithmetic. This work proposes to revisit the asymptotic stability theory with the aim of computation of convergence rates using constructive analysis which is a mathematical tool that realizes equivalence between certain theorems and computation algorithms. Consequently, it also offers a framework which allows controlling numerical imperfections in a coherent and formal way. The overall goal of the current study also matches with the trend of introducing formal verification tools into the control theory. Besides existing approaches, constructive analysis, suggested within this work, can also be considered for formal verification of control systems. A computational example is provided that demonstrates extraction of a convergence certificate for example dynamical systems.
Android ist eine Plattform und kommt auf den unterschiedlichsten mobilen Endgeräten wie Smartphones, Tablets und vielen anderen zum Einsatz. Aufgrund des prosperierenden Marktes für die auf Android zugeschnittenen Geräte, erlangt diese Plattform eine immer größere Bedeutung im Rahmen der Informationssicherheit. Da die Leistungsfähigkeit der mobilen Endgeräte perpetuell expandiert, nimmt auch die Gefahr zu, dass diese kompromittiert und so durch kriminelle Handlungen zweckentfremdet werden. Zum Schutz vor solchen Bedrohungen ist eine Untersuchung über online Anbieter oder Sicherheitssuiten möglich. Während sich die statische Analyse mit der Mustersuche befasst, wird bei der dynamischen Analyse das Verhalten eines Schadprogramms geprüft. Die Methode der Verhaltensanalyse muss im laufenden Betrieb geschehen, was üblicherweise durch Software Emulation realisiert wird. Die virtuelle Umgebung kann jedoch von Schadprogrammen eruiert werden und um einer Erkennung zu entgehen, führen diese ein eigens dafür programmiertes Verhalten aus. Die vorliegende Arbeit befasst sich mit der Hardwareplattform Wandboard und deren Konfiguration, um im späteren Verlauf Android Schadsoftware zu analysieren. Dabei sollte das Hauptaugenmerk auf die Schadsoftware gelegt werden, die eine Emulation erkennen kann. Dazu werden zunächst die Grundlagen zur Hardware Wandboard und zur Plattform Android gegeben. Um Schadprogramme einer detaillierten Analyse zu unterziehen, muss das Verständnis von Betriebssystem Abläufen sowie den genutzten Dateisystemen mit möglichen Speicherorten, apodiktisch sein. Die Software basierenden Werkzeuge müssen bekannt sein, um eine ubiquitäre Einführung entwickeln zu können. Diese kann dann als Leitfaden für aufbauende Arbeiten zur Disposition stehen. Anhand einer Schadsoftware wird exemplarisch gezeigt, wie eine Analyse der Netzwerkkommunikation eines Android Schadprogramms bewerkstelligt werden kann. Nach einem Überblick wird artikuliert, dass die Hardwareplattform Wandboard eine sehr gute Wahl für eine Analyse von Android Schadsoftware darstellt und die Evaluation der Hardware in demselben Maße von Bedeutung ist, wie die der Software.
Das Ziel dieser Arbeit war die Kombinierung von Lerninhalten und Techniken der Lernpsychologie mit kommerziellen Spielgenres. Dabei werden theoretische Grundlagen zu Unterhaltungsspielen und Lerntheorien sowie dem E-Learning vermittelt. Anschließend findet eine Zusammenführung der erörterten Theorie statt, um ein Konzept sowie einen Prototyp zu entwickeln. Der Prototyp wurde an der Zielgruppe getestet und ausgewertet. Diese Bachelorarbeit ist vor allem für Studenten der Medieninformatik und Interessenten der Spielentwicklung interessant.
Die vorliegende Diplomarbeit befasst sich mit der Erstellung eines Konzeptes für eine Betriebs- und Konfigurationssoftware eines CAN-Bus-Datenloggers sowie mit der anschließenden Implementierung dieses Konzeptes. Basierend auf einer Analyse bestehender Datenlogger werden die notwendigen Anforderungen ermittelt. Diese Anforderungen stellen die Grundlage für das Konzept der Betriebs- und Konfigurationssoftware dar. Im Anschluss an die Implementierung erfolgt der Nachweis über die Umsetzung der vorab definierten Anforderungen mittels Verifikation.
Verwendung von „mCherry“ als Reportersystem zur Bestimmung der Stärke verschiedener Promotoren.
(2016)
In der folgenden Arbeit geht es um die Analyse der Stärke von verschiedenen Promotoren in den Mikroorganismen Escherichia coli und Acetobacterium woodii, welche mithilfe des rot fluoreszierenden Reporterproteins mCherry detektiert wurde. Die Messungen wurden jeweils bei zellsuspensionen mit dem TECAN-Reader „Infinite® 200 PRO“ der Tecan Group Ltd., Schweiz, durchgeführt. Die relative Fluoreszenz, bei der es sich um die gemessene Emission
in Bezug auf die OD600 der jeweiligen Zellsuspension handelt, spiegelt die Stärke des jeweiligen Promotors wieder.
Des Weiteren wurde die Klonierung des Promotors PbgaL2 durchgeführt.
Die vorliegende Bachelorarbeit ist eine Machbarkeitsstudie mit dem Ziel, die Umsetzbarkeit von Projekten mit Methoden aus der Modellgetriebener Softwarearchitektur (MDSD) in kleineren agilen Gruppen nachzuweisen. Wegen der vielen Kombinationsmöglichkeiten aus agilen und MDSD Methoden werden für das Pilotprojekt zur Organisation Kanban, Test Driven Development als agile Arbeitsmethode und als MDSD Methode die Entwicklung einer Domain Specific Language gewählt. Das Ziel des Pilotprojekts ist die Entwicklung einer neuen Domain Specific Language für das Programmieren von Incremental Game Prototypen.
Die Resultate der Arbeit sind: a) Ein nichtlinearer multivarianter Entscheidungsbaum zur Auswahl der geeigneten Rahmenbedingungen bei der Planung und Umsetzung von Domain Specific Languages, b) eine neue Methode zur agilen Entwicklung von Domain Specific Languages, nämlich die „Domain Specific Prototype Methode“ sowie c) der Beweis, dass die Verwendung von MDSD, zumindest von Domain Specific Languages, für die Arbeit in agiler Teams nicht nur möglich, sondern vorteilhaft ist.
Die Umsetzung der „Domain Specific Prototype Methode“ wird anhand des
Pilotprojektes sowohl in der Theorie als auch in der Praxis beschrieben.
Die vorliegende Arbeit befasst sich mit der Entwicklung eines Tools zur Unterstützung eines Embedded-Software-Entwicklers für die Erstellung einer nach SIL-2 abgenommenen Modulspezifikation. Das Hauptaugenmerk hat dabei vor allem auf dem Zeitfaktor zu liegen. Es soll dem Entwickler dadurch eine optimierte Nutzung seiner Arbeitszeit ermöglichen. Um dies zu erreichen, soll das Tool an die aktuelle Arbeitsweise angelehnt sein und eine effiziente Technologie für die Erstellung der Dokumentation verwenden. Ein weiterer Vorteil dieses Tools ist eine Reduzierung von Fehlerquellen.
In der Softwareentwicklung gewinnen agile Methoden zunehmend an Bedeutung. ERP-Implementierungspartner sind in der Regel keine Entwickler neuer Standardanwendungen, sondern erweitern oder ergänzen vom Hersteller gelieferte Standardsoftware. Die Diplomarbeit soll zeigen, ob agile Methoden für die Softwareentwicklung bei ERP-Implementierungspartnern aufgrund der besonderen Anforderungen geeignet sind .
Die Bedeutung mobiler Geräte wächst, aufgrund des zunehmenden Funktionsumfanges sowie deren Leistungsfähigkeit, seit ihrer Einführung stetig. Eine Kernkomponente dieser Geräte bildet das Betriebssystem. Hierbei stellt das Android die populärste und am Markt weit verbreitetste mobile Plattform dar. Damit verbunden bilden Android-basierte Geräte de facto das Hauptangriffsziel von Cyberkriminellen, wobei die Systeme in Form von Malware kompromittiert werden. Hieraus erwächst das Erfordernis, effiziente Maßnahmen zur Abwehr dieser Bedrohungen zu entwickeln. Grundlage dafür bildet die forensische Untersuchung dieser Schadanwendungen. Derzeit im Internet verfügbare Signatur-Analysen von Android-Paketen liefern hierbei nur begrenzte Informationen über das charakteristische Laufzeitverhalten dieser Applikationen bei Ausführung des maskierten Schadcodes. Die Zielsetzung dieser Arbeit ist die Schaffung einer hardwarebasierten Android-Analyse-Plattform – auf der Grundlage eines Wandboards –, um mobile Malware zur Laufzeit zu überwachen und, neben statischen Applikationsdaten, deren schadhaften Aktivitäten – gestartete Prozesse, nachgeladene Bibliotheken und Netzwerkverkehr – aufzuzeigen. Das Hauptaugenmerk liegt hierbei auf der Entwicklung und systemischen Integration einer forensischen Methodik zur automatisierten Sammlung und Bereitstellung dieser Daten. Um ein prinzipielles Verständnis für den Themenkomplex zu erhalten, werden elementare Grundlagen und Spezifika der Android-Plattform sowie Aspekte der IT-Forensik ausgeführt. Der Detaillierung der entwickelten Vorgehensweise folgt die veranschaulichte Darstellung des Aufbaus und der Konfiguration der Android -Analyse-Plattform. Die Anwendbarkeit der geschaffenen Methodik wird, in Form eines exemplarischen Untersuchungsablaufes, an einer Android-Malware demonstriert.
Die ubiquitäre, anthropogene Ausbreitung von pharmazeutischen Substanzen in der Umwelt, stellt ein weitreichendes Problem für alle Lebewesen dar. Hormone, die auf unterschiedlichsten Wegen in den aquatischen Lebensraumgelangen, sind unter anderem verantwortlich für das Fischsterben. Da sich die Anwesenheit dieser Stoffe allgemein und besonders bei Hormonen in der Umwelt nur auf geringe Konzentrationen begrenzt und sie dabei dennoch ein großes Risiko darstellen, sind geeignete Methoden zum Nachweis und zur Entfernung dieser Stoffe aus dem aquatischen System notwendig. Diezbezüglich sollen bereits etablierte biosensorische Detektionsmethoden unter Einsatz von Aptameren untersucht werden, um niedermolekulare Substanzen zu detektieren. Das Zielmolekül stellt dabei das Hormon 17ß-Estradiol, dass auf der Beobachtungsliste der EU Wasserrahmenrichtlinie steht und zu welchem bereits spezifische Aptamere veröffentlich sind, dar.
It is possible to obtain a common updating rule for k-means and Neural Gas algorithms by using a generalized Expectation Maximization method. This result is used to derive two variants of these methods. The use of a similarity measure, specifically the gaussian function, provides another clustering alternative to the before mentioned methods. The main benefit of using the gaussian function is that it inherently looks for a common cluster center for similar data points (depending on the value of the parameter s ). In different experiments we report similar behaviour of batch and proposed variants. Also we show some useful results for the “alternative” similarity method, specifically when there is no clue about the number of clusters in the data sets.
Diese Arbeit beschäftigt sich mit dem Konzept von Virtual-Reality-Brillen und deren Einfluss auf das Immersionsempfinden in Bezug auf Videospiele. Es soll geklärt werden, welche einzelnen Aspekte der Immersion bei der Benutzung einer Virtual-Reality-Brille während des Erlebens von Videospielen verbessert werden und wie intensiv dies ausfällt. Die Vorgehensweise stützt sich auf Recherche und eine theoretische Auseinandersetzung mit der Thematik. Zu diesem Zweck wird der Begriff Immersion anhand der vorhandenen Forschungslage definiert und in untersuchbare Teilbereiche aufgegliedert. Als Repräsentant moderner Virtual-Reality-Brillen wird die Oculus Rift gewählt. Deren technische Eigenschaften und Funktionsweisen werden ergründet, den festgelegten Teilbereichen der Immersion gegenübergestellt und auf das jeweilige Immersionspotential untersucht werden. Es stellte sich heraus, dass die Oculus Rift in der Lage ist, Immersionsformen zu unterstützen, die auf der Sinneswahrnehmung des Spielers basieren. Immersionsformen, welche eine kognitive Auseinandersetzung des Spielers mit Spielinhalten voraussetzen, gewinnen je nach Einzelfall nur schwach bis gar nicht an Intensität. Zum Zwecke der weiteren Auseinandersetzung mit der Thematik und der Bestätigung der theoretischen Erkenntnisse wird ein Untersuchungsdesign vorgestellt, das auf den Feststellungen dieser Arbeit basiert und in künftigen Probandentests eingesetzt werden kann.
In dieser Arbeit wurden kulturelle Nachweisverfahren zur Detektion von Vaginitis Erregern mit molekularbiologischen Methoden verglichen und bewertet. Für diese Untersuchung standen Vaginalabstriche von Patientinnen zur Verfügung. Diese Vaginalabstriche wurden von Gynäkologen zur Untersuchung auf pathogene Keime in das Fachlabor „Diagnosticum“ nach Neukirchen geliefert. Es wurden folgende verschiedene Universal- und Selektionsnährmedien für den Nachweis verwendet: TSS-, MCK-, MRS-, PVX-, GAR- und CAN2-Agar. Außerdem erfolgte eine mikroskopische Beurteilung (Nugent-Score) der Abstriche. Dazu wurden die Proben nach der Gram-Färbung bei 1.000-facher Vergrößerung mikroskopisch betrachtet und bewertet. Nach der Identifizierung möglich pathogener Keime erfolgte die Resistenztestung, um für den behandelnden Gynäkologen die Auswahl des richtigen Antibiotikums zu erleichtern.
Die beiden Resistenztestungssysteme, VITEK2- (bioMérieux) und Phönix-System (Becton Dickinson), basieren auf der Bestimmung der Minimalen-Hemmkonzentration. An molekularen Nachweismethoden wurde ein DNA-Hybridisierungsverfahren, Affirm-Test (Becton Dickinson), verwendet. Ferner wurden zwei Nukleinsäuren-Amplifikationsmethoden genutzt. Zum einen wurde eine Multiplex Real-Time PCR (fast-track) und zum anderen eine TMA (Transcription Mediated Amplification) Methode verwendet. Die Multiplex Real-Time PCR ermöglicht den Nachweis verschiedener Erreger (Chlamydia trachomatis, Neisseria gonorrhoeae, Mycoplasma genitalium, Trichomonas vaginalis, Mycoplasma hominis, Ureaplasma urealyticum und Ureaplasma parvum). Für das TMA wurde ein Combo Assay zur Detektierung von Chlamydia trachomatis und Neisseria gonorrhoeae genutzt. Während der Masterarbeit wurden 251 Patientenproben untersucht und ausgewertet.
Diese Arbeit beschäftigt sichmit bestehendenUser-Space Implementierungen des TCP-Protokolls zur Verwendung in einer Firewall. Die Implementierungen werden hinsichtlich ihrer Wartbarkeit, Dokumentation und Integrierbarkeit in eine bestehende Firewall-Lösung bewertet. Außerdem wird die Funktionsweise eines TCP-Proxy erläutert.
Für die Messung der Exposition der nicht ionisierenden Strahlung gibt es die verschiedensten Normen und nationale Vorschriften. Die Diplomarbeit soll zeigen, ob die bisher oft angewandte Messmethode mittels eines einzigen Messpunktes (auch Einpunkt Methode genannt), auch plausible Ergebnisse ergibt. Der Messpunkt wird bestimmt durch Räumlichkeiten mit sensibler Nutzung (z.B. Schlafzimmer, Kinderzimmer,…), ebenso sollte immer ein Outdoor Messpunkt mitgemessen werden. Die in der Literatur beschriebenen Messmethoden wie z.B. Schwenkmessung, Mehrpunkt Messungen,… sind im Vergleich mit der Einpunkt Messung zeitlich und messtechnisch aufwendiger.
Um die einzelnen Messmethode zu prüfen, werden die ausgewählten Messmethoden durch Messungen miteinander verglichen und bewertet.
Folgende Messmethoden werden bewertet:
• EN8850 vorgeschlagene Flächenmessung mittels Drei- oder Sechspunktmessung und anschließender Mittelwertbildung der einzelnen Messwerte. Diese Messung wird mit und ohne Hochrechnung auf maximale Auslastung durchgeführt
• 24h Dauermessung mittels frequenzselektiven, auswertbaren Personen Dosimeter
• Einpunkt Messung mit und ohne Hochrechnung auf maximale Auslastung
Häufiger werden komplexere Fachanwendungen nicht mehr nach dem Rich-Client-Prinzip konzipiert, sondern in einer Web-Frontend-Backend-Architektur umgesetzt. Die Modellierung komplexer Geschäftsprozesse erfolgt meist nach einer serviceorientierten Architektur. Der Einsatz von Webservice-Technologien ist besonders für die technische Realisierung von serviceorientierten Architekturen geeignet. Neue Marktanforderungen von mobilen Geräten und höhere Entwicklungsgeschwindigkeiten fordern von Softwareherstellern noch flexiblere, nachhaltigere und dezentralere Lösungen. Microservices greifen das Problem auf und fokussieren die Modularisierung von monolithischen Systemen. Die Entwicklung unabhängiger Services, die einzeln erstellt und ausgeliefert werden können, tragen zu einer agilen Softwareentwicklung bei. Ziel der Arbeit ist es, eine Strategie für die Anbindung von Webservices in Projekten zu liefern. Neben der im Enterprise-Umfeld etablierten serviceorientierten Architektur wird der neuere Ansatz der unternehmensübergreifenden Microservice-Architektur aufgegriffen. Am Beispiel eines Prototyps werden die Rahmenbedingungen dargestellt, die für die Anbindung von verschiedenen Webservices erfüllt sein müssen. Zusätzlich werden Vorschläge gegeben, die die Funktionalitäten des Prototyps bei einem Ausfall externer Dienste sicherstellen.
Im Rahmen der vorliegenden Arbeit wurde die Modifizierung von Titanoberflächen mit Kalziumphosphatbeschichtungen unter Einbeziehung der biologisch aktiven Spurenelemente Strontium und Kupfer untersucht. Hierfür bildet die Methode der elektrochemisch gestützten Abscheidung (ECAD) von Kalziumphosphaten aus wässrigen Elektrolyten die Grundlage. Mit der Modifizierung der Kalziumphosphatbeschichtung soll die Einheilphase der Implantate verkürzt werden, indem durch sukzessive Degradation sowie der Phasenumwandlung der unter Bruschitbedingung abgeschiedenen Beschichtungszustände die immobilisierten Ionen in das Umgebungsgewebe freigesetzt werden. Für die Bruschitabscheidung mit bzw. ohne Strontium wurden drei unterschiedliche Beschichtungsstrategien zur Immobilisierung von Kupfer in die Kalziumphosphatbeschichtung angewendet. Diese spurenelementhaltigen Beschichtungen wurden hinsichtlich der Belegungsdichten der Hauptkomponenten der Kalziumphosphatmatrix sowie der eingelagerten Spurenelemente sowie der Morphologie der Beschichtungsoberfläche untersucht. Zur weiteren Oberflächencharakterisierung wurden der chemische Status von Kupfer und Strontium sowie die Phasenzusammensetzung der abgeschiedenen Beschichtung analysiert. Weiterhin wurde untersucht, inwieweit unterschiedliche Belegungsdichten bzw. die verschiedenen Beschichtungsvarianten das Freisetzungsverhalten der Spurenelemente unter annähernd physiologischen Verhältnissen beeinflusst. Die kupferhaltigen Beschichtungszustände wurden hinsichtlich ihres antimikrobiellen Potentials untersucht.
In meiner Masterarbeit habe ich mich mit Wasserlinsen als neuartige Energieträger für die Energiebranche beschäftigt. Dazu wurden im Labor Wasserlinsen in kleinen Becken angezüchtet und später dann als Substrat für die Biogasherstellung verwendet. Hierzu wurde ein Kleinfermentersystem im Labormaßstab aufgebaut, in dem erste Tests zur Erzeugung von Biogas aus Wasserlinsen erfolgten. Durch verschiedene Analysen wurde im Anschluss
bewertet, inwieweit sich Wasserlinsen zur Biogasproduktion eignen und welchen Einfluss Indol-3-Essigsäure auf die Synthese hatte.
Basierend auf dem aktuellen Verständnis über die olfaktorische Perzeption der Hundenase, der Definition des menschlichen Individualgeruchs und dem Einfluss von Wetterparametern und weiteren Faktoren, welche im Zusammenhang mit einer urbanen Umgebung auf eine molekulare Geruchsspur einwirken können, soll diese Arbeit den derzeitigen wissenschaftlichen Stand verdeutlichen und Wiedersprüche aufgreifen. Es wird eine umfangreiche Literatursammlung zum gegenwärtigen Wissensstand dargestellt, sowie bestehende Probleme polizeilicher Mantrail-Einsätze aufgezeigt. Die Arbeit bietet eine differente Betrachtungsweise im Umgang mit der Dokumentation dieser Einsätze und gibt erste Einblicke für die Entwicklung einer computergestützten Simulation, basierend auf statistischen Modellen. Eine daraus resultierende Software soll eine juristisch verwertbare Wahrscheinlichkeitsaussage zum Verhalten des Hundes in seiner urbanen Umgebung auf der Grundlage einer molekularen Spur ermöglichen und kann als Werkzeug zur Dokumentation, sowie zur Plausibilitätsbetrachtung von Mantrail-Einsätzen Verwendung finden. Basis für diese Ansätze bildet das Verständnis der Geruchswahrnehmung durch den Hund, sein Verhalten während eines Trails sowie die Kenntnisse über die Ausbreitung einer Geruchswolke in der Umwelt. Diese Aspekte, sowie deren Beeinflussung durch äußere Faktoren und die Mensch-Hund Beziehung die maßgeblich zum Erfolg beiträgt, werden in der vorliegenden Arbeit ausführlich diskutiert und erste Ansätze zur Demo-Software vorgestellt.
Das Ziel der vorliegenden Bachelorarbeit ist es, die wichtigsten theoretischen Konzepte zum kreativen Lernen zu vergleichen und empirisch zu überprüfen. Dazu wurde in zwei Kita eine teilnehmende Beobachtung durchgeführt. Die Ergebnisse sollen herausfinden, in welcher Weise Animationsfilme Lernhilfen für Kinder darstellen. Folgende Schlussfolgerungen gehen jedoch nach der Auswertung der teilnehmenden Beobachtung über die theoretischen Annahmen hinaus: vbL in Kitas ist möglich, erweist sich im Alltag allerdings Schwierig, Animationsfilme oder digitale Medien sollten im Kita-alltag sparsam eingesetzt werden und vbL sollte nur genutzt werden, wenn Kinder dabei selbst aktiv werden können.
Die Gamesbranche erwirtschaftet jedes Jahr mit AAA Titeln Milliardenumsätze und wächst stetig weiter. Diese wissenschaftliche Arbeit trägt den Titel: Untersuchungen zur Machbarkeit der Entwicklung von Games-AAA-Titeln durch kleine Teams. In der Arbeit wird analysiert ob es möglich ist AAA-Games-Titel mit kleinen Teams umzusetzen. Dafür wird die Entwicklung der Branche analysiert um Ausgangslage und Anforderungen für AAA-Titel zu definieren. Mit diesen Daten werden neue Arbeitsweisen und Technologien untersucht und bewertet. Aus diesen wird dann ein optimales Modell ab-geleitet mit dem AAA-Titel mit wenig Kapital und Entwicklern umgesetzt werden kann.
Implementierung einer Schrifterkennung auf Basis Neuronaler Netze am Beispiel einer IBAN-Erkennung
(2017)
Inhalt dieser Arbeit ist die Entwicklung einer Software zur Schrifterkennung, basierend auf Neuronalen Netzen. Dies soll am Beispiel einer IBAN-Erkennung skizziert werden.
Hierfür werden zuerst grundlegende Konzepte (künstlicher) Neuronaler Netze sowie der für die Zeichen-Extraktion notwendigen Bildvorverarbeitung besprochen.
Die Implementierung des Neuronalen Netzes erfolgt auf Basis eines speziellen Frameworks, zum direkten Vergleich wird auch eine (rudimentär funktionale) Eigenentwicklung vorgestellt.
Entsprechende Tests und Messungen zeigen Stärken und Schwächen der umgesetzten Lösung und liefern somit Aufschluss darüber, welches Potential für eine weitere Behandlung der Thematik besteht.
Die Überwachung sozialer Online-Netzwerke spielt eine zunehmend wichtige Rolle, um die polizeilichen Aufgaben hinsichtlich Kriminalprävention und Gefahrenabwehr auch im virtuellen Raum effektiv und effizient wahrnehmen zu können. Gleichzeitig machen das enorme Volumen und die Komplexität der Daten eine manuelle Bearbeitung nahezu unmöglich. Es müssen automatisierte Verfahren entwickelt werden, welche sogenannte Gefährder in sozialen Online-Netzwerken sicher erkennen können. Für die Entwicklung, das Training und die Evaluation von Modellen für das Maschinelle Lernen werden standardisierte Referenzdaten benötigt. Die vorliegende Arbeit beschäftigt sich mit der Entwicklung eines solchen Goldstandards mit Trainings- und Testdaten für Algorithmen zur Detektion von Gefährdern in sozialen Online-Netzwerken. Es werden Kriterien für die Auswahl relevanter Profile und Attribute erarbeitet und Anforderungen für die Strukturierung und Ablage der Daten formuliert. Weiterhin werden konkrete Profile und Feature-Kandidaten sowie ein XML-Schema und Dateilayout für die Bereitstellung der Daten des Goldstandards vorgeschlagen. Abschließend werden die Ergebnisse kritisch gewürdigt und ein Ausblick für zukünftige Arbeiten gegeben.
In dieser Thesis wird das Konzept des Software Defined Networkings (SDN) und den daraus resultierenden Möglichkeiten näher betrachtet. Auf dieser Grundlage wird beschrieben wie mit Hilfe einer SDN Umgebung eine kritische Infrastruktur abgesichert werden kann. Hierzu wird eine Mikrosegmentierung mit VMware NSX und auf Basis des VXLAN Protokoll realisiert. In weiterer Ausbaustufe werden zwei Rechenzentren zu einer hybriden Cloud zusammengeschlossen und demonstriert wie Layer 2 Datenverkehr zwischen beiden Rechenzentren transparent übertragen und dadurch die Sicherheit für solch ein Szenario erhöht wird. Darauf folgt ein Vergleich mit einer vergleichbaren Netzwerkumgebung, mit abschließender Beurteilung des Sicherheitsniveaus der implementierten Infrastruktur.
AVL entwickelt aktuell einen neuen Ladungsverstärker, der sich von Vorgängermodellen dadurch unterscheidet, dass zusätzlich zur Ausgabe der verstärkten und gefilterten Signale auch deren Digitalisierung und Verarbeitung in einem Signalprozessor vorgesehen sind. Für diese Hardware soll im Signalprozessor ein intelligenter Algorithmus zur Driftregelung als auch eine Ermittlung und statistische Bewertung der Signalspitzenwerte konzipiert und als Firmwarekomponenten umgesetzt werden. Aufgrund seines Aufbaus benötigt ein Ladungsverstärker eine permanente Kompensation der auftretenden Drifteffekte, um den Signalnullpunkt stabil zu halten. Solche Drifterscheinungen kommen sowohl durch die nicht idealen Komponenten, zu geringe Isolation der Signalwege als auch durch diverse Effekte der verwendeten Quarzdruckaufnehmer zustande. Durch Analyse des digitalisierten Messsignals soll laufend die Nullpunktsdrift ermittelt und durch Abgabe einer Korrekturspannung an einen DAC, aus der wiederum ein Kompensationsstrom für den Ladungs-/Spannungskonverter erzeugt wird, vollständig ausgeregelt werden. Die für die Driftregelung erforderliche Signalanalyse, soll gleichzeitig auch dazu verwendet werden, laufend den Spitzenwert des Signals zu ermitteln und diesen einer von 5 Klassen zuzuordnen und die Häufigkeiten in den Klassen zu kumulieren. Auf diese Weise kann dem Anwender ein Maß für die vom Sensor wahrgenommene Belastung, übermittelt, und somit ein Kriterium zur Entscheidung für einen eventuellen Sensoraustausch geboten werden.
Diese Arbeit untersucht den Einfluss westlicher und japanischer Kultur auf die Videospielindustrie. Dabei reduziert sie sich auf einen gewissen Kulturbegriff und schafft mithilfe dessen ein aktuelles und neutrales Bild der Stereotypen beider Kulturen. Eine analytische Betrachtung am praktischen Beispiel einiger Videospiele, gibt dabei Aufschluss über unterschiedliche Konzepte, die durch das bestehen von Kulturen geprägt wurden. Auf Grundlage der quantitativen Umfrage werden gewisse Neigungen und Präferenzen der westliche Audienz untersucht und analysiert und mit den theoretischen, sowie analytischen Ansätze verglichen und in Relation gesetzt. Das Ergebnis zeigt, dass kulturelle Wertmuster im Zuge der Globalisierung einander annähern und die Grenzen der eindeutigen Identifikation zunehmend verschwimmen
The endogen steroid hormone 17b-estradiol is a central player in a wide range of physiologic, behavioral processes and diseases in vertebrates. As a consequence, it is a main target for molecular design and drug discovery efforts in medicine and environmental sciences, which requires in-depth knowledge of protein-ligand binding processes. This work develops a bioinformatic framework based on local and global structure similarity for the characterization of E2-protein interactions in all 35 publicly available three-dimensional structures of estradiol-protein complexes. Subsequently, it uses gained data to identify four geometrically conserved estradiol binding residue motifs, against which the Protein Data Bank is queried. As result of this database query, 15 hits present in seven protein structures are found. Five of these structures do not contain E2 as ligand and had thus not been included in this work’s initial data set. One of these newly detected structures is structurally and functionally dissimilar, as well as evolutionarily distant from all other proteins analyzed in this work. Nevertheless, the ability of this protein to actually bind estradiol must be further analyzed. Finally, geometrically conserved E2-protein interactions are identified and a new research direction using these conserved interaction ensembles for the detection of novel estradiol targets is proposed.
Für die Unfallrekonstruktion bietet die Erstellung eines 3D-Modelles viele Vorteile. Es fallen weniger Daten bei der Datenakquirierung an und somit wird benötigte Zeit an der Unfallstelle reduziert. Zusätzlich lassen sich Messungen direkt am 3D-Modell vornehmen. Um eine möglichst genaue 3D-Rekonstruktion zu ermöglichen, wurde in dieser Arbeit der Einfluss von verschiedenen Aufnahmemethodiken und softwarespezifischen Prozessparametern, auf das mithilfe der Photogrammetrie Software Agisoft PhotoScan erstellte Modell untersucht. Da es bisher wenig Literatur gab, welche sichmit der richtigen Parametrisierung des Rekonstruktionsprozesses auseinandersetzte, wurde dabei deshalb empirisch vorgegangen. Als unterschiedliche Aufnahmemethoden wurden die Aufnahme direkt mit der Kamera aus der Hand, an einem Stativ und aus der Luft mit drei verschiedenen Kamerasystemen analysiert. Die rekonstruierten 3D-Modelle wurden auf ihre Abweichung und auf die optische Ähnlichkeit zum realen Modell untersucht. Das Ziel dieser Arbeit war die Optimierung des Rekonstruktions- und Aufnahmeprozesses für die Aufnahme einer Fahrbahn. Dabei stellten sich heraus, dass sich für verschiedene Aufnahmemethodiken unterschiedliche Prozessparameter eignen und dass die Parametrisierung, neben der Aufnahmemethodik, einen großen Einfluss auf das fertige 3D-Modell hat.
Die vorliegende Arbeit befasst sich mit der Analyse der Verbindungen zur Blockchain-Technologie und der künstlichen Intelligenz. Das Hauptziel ist, neue Bereiche der beiden Technologien zu beschreiben und zu erklären. Zuerst werden inhaltliche Fragen und Erklärungen für ein besseres Verständnis der beiden Technologien erläutert. Des Weiteren werden gemeinsame Einsatzszenarien, sowie dessen Realisierung betrachtet. Zuletzt werden Vor- und Nachteile, sowie eine Zukunftsprognose der Blockchain-Technologie und der künstlichen Intelligenz aufgestellt.
In dieser Arbeit ging es hauptsächlich darum, zu untersuchen wie bestimmte, gewählte Degradationsparameter auf DNA Proben realer Personen einwirken und wie diese im Laufe der Zeit verändert werden. Besonderes Augenmerk lag hierbei auf dropout/dropin Phänomenen. Dabei wurde zusätzlich die Verwendbarkeit des Chimera® Mentype® Kits in der forensischen Spurenanalytik überprüft.
Es wurden unterschiedliche Spurenmaterialien von fünf Probanden über einen Zeitraum von 4 h bis 14 Tagen, diversen Temperaturen und UVC-Bestrahlung ausgesetzt. Die Auswertung erfolgte mittels STR-Profilen sowie Fragment Analyzer™. Ebenfalls wurden Hautabriebsspuren gesichert, welche mittels NanoDrop™ und Fragment Analyzer ™ analysiert wurden um eine Beurteilung über die Tauglichkeit dieser Tools vornehmen zu können.
Die Ergebnisse bestätigen, dass ein großer Unterschied zwischen Speichelproben und Mundschleimhautabstrichen besteht, was Degradationserscheinungen betrifft. Es konnte auch festgestellt werden, dass es signifikante Unterschiede bei den Probanden gibt. (Shedderstatus) Bei dem Vergleich von STR-Profilen mit den Fragment Analyzer™ Daten zeigt sich, dass eine Korrelation nicht möglich ist.
Der angesetzten Toolvergleich brachte hervor, dass der Fragment Analyzer™ effizienter und präziser ist, womit der NanoDrop™ vorgezogen werden sollte.
Ziel der vorliegenden Arbeit war es, ein Qualitätssicherungssystem von Tierarzneimittel – Standardsubstanzen zu erstellen, indem die chromatographischen Eigenschaften der Wirkstoffe, die zur Überprüfung der Arzneimittelrückstände in Lebensmitteln dienen, erfasst und dokumentiert wurden. Der Bestand der internen Datenbank, die zum Untersuchungsspektrum der „Landesuntersuchungsanstalt für das Gesundheits- und Veterinärwesen“(LUA) Chemnitz gehören, umfasst derzeit 745 Wirkstoffe, hierbei konnten 437 Wirkstoffe in die Stabilitätsprüfung aufgenommen werden. Es wurden 103 Substanzen mittels GC-MS und 334 Wirkstoffe mittels HPLC-DAD erfasst und dokumentiert. Es wurde mittels einer Dreifachmessung ein geeignetes Verfahren zur Überprüfung der chromatographischen Eigenschaften und zur Kontrolle der Stabilität gefunden.
Ziel dieser Diplomarbeit ist es, eine geeignete mobile Messmethode für ein Motorenüberwachungssystem mit Erkennung und Ausgleichsroutine bei Motorlaständerungen zu finden. Zunächst werden Grundlagen und wichtige Kennwerte der Indiziermesstechnik erklärt. Danach folgt die Gegenüberstellung von zwei Messmethoden mit erweiterter Plausibilitätsüberprüfung der verwendeten Sensoren. Die Validierung aussagekräftiger Resultatwerte, soll als Grundlage für die Erweiterung des Softwareablaufs dienen. Die beiden letzten Kapitel befassen sich mit der Erweiterung des Softwareablaufs sowie einer Zusammenfassung mit Ausblick.
Bereits 1886 entdeckte der Kinderarzt Theodor Escherich ein neuartiges Bakterium, welches später den Namen Escherichia (E.) coli bekommt, im Darm von Kleinkindern. Im Laufe der Jahre fand man heraus, dass E. coli sowohl probiotische, als auch pathogene Eigenschaften haben kann. Pathogene E. coli können eine ganze Reihe gefährlicher Durchfallerkrankungen auslösen, was eine sichere Diagnose der Erreger notwendig macht. Die zuverlässigste Analysemethode ist die Polymerase-Ketten-Reaktion (PCR). Dabei können kleinste Mengen DNA vervielfältigt und anschließend analysiert werden. Ziel dieser Arbeit ist die Entwicklung und Validation einer Multiplex-PCR, um insgesamt sieben verschiedene pathogenen E. coli nachweisen und unterscheiden zu können
Im Rahmen dieser Arbeit werden existierende Taxonomien und Ergebnisse weiterer wissenschaftlicher Arbeiten, welche sich mit der Aufnahme und Verarbeitung auditiver Reize, sowie möglichen Reaktionen auf diese, beschäftigen, miteinander verknüpft. Zudem werden die Erfahrung eines Videospiels im Spieler, die dafür von ihm benötigten, mentalen Fähigkeiten, als auch Funktionen von Audio hinsichtlich der Anwendung in der Mensch-Maschine-Interaktion, zu besagten Kategorisierungen in Relation gesetzt, um eine Kategorisierung zu erschließen, welche bei der Arbeit mit auditiven Reizen angewandt werden kann. Das Ziel hierbei ist das Streben nach einer idealen Erfahrung im Spieler eines Videospiels zu unterstützen, sowie das Schaffen eines vollständigen Leitfadens zum Sound Design von Videospielen weiter voranzutreiben
Brassica oleracea like all crucifers plants have a defense mechanism against natural enemies, which are chemical compounds formed form the enzymatic degradation of glucosinolates. In the presence of epithiospecifier proteins (ESP), the hydrolysis of glucosinolates will form epithionitriles or nitriles depending on the glucosinolate structure, This research proved that three predicted sequences (ESP) taken from NCBI database has a role in the enzymatic hydrolysis of glucosinolates in Brassica oleracea.
Modularität in 3D-Videospielumgebungen und Techniken zur Verwendung und Minimierung der Nachteile
(2017)
Diese Arbeit thematisiert die Vorteile und Nachteile der Verwendung von modularen Asset-Sets sowie den Arbeitsablauf bei der Erstellung dieser in einer Echtzeit-3D-Umgebung. Am Ende sollen der Produktionsaufwand der Assets sowie die zu erwartende Performance besser eingeschätzt werden können. Zudem soll der Leser Zugriff auf Techniken erhalten, mit denen sich die Nachteile durch die Verwendung von modularen Assets minimieren lassen.
In dieser Bachelorarbeit wird die steigende Nutzung von computerbasierten Animationstechniken und ihre Auswirkungen auf die Popularität von handgezeichneten Animationen und Stop-Motion-Filmen analysiert und kritisch hinterfragt. Unter Animation sei in diesem Fall ein Bewegtbild in Form eines Films, einer Fernsehserie oder eines auf sonstige Weise verbreiteten Videos zu verstehen, welches ausschließlich unter Verwendung von Computern, Puppentrick oder gezeichneten Bildinhalten erstellt wurde. Animierte Elemente in Realfilmen sollen nicht berücksichtigt werden. So sind in Filmen, wie JASON AND THE ARGONAUTS (R.: Don Chaffey. USA 1963) oder AVATAR (R.: James Cameron. USA 2009), zwar animierte Elemente enthalten, jedoch dienen diese lediglich als Werkzeug zur Erweiterung der filmisch darstellbaren Realität. Diese Werke sind somit nicht als Animationsfilme kategorisiert und werden in dieser Arbeit nicht grundlegend behandelt. Jegliche Erwähnung dieser Art steht im direkten Zusammenhang zu ihrer Auswirkung auf die zugrunde liegende Animationsform. In dieser Arbeit wird erläutert, in welchem Maße das computergenerierte Bewegtbild in der Populärkultur eine Vorrangstellung einnimmt und welche geschichtlichen Hintergründe dazu führten. Dazu wird Zeichentrick vor allem auf seinen Kostenaufwand, die allgemeine Produktionsdauer, die benötigte Arbeiterschaft und seine Popularität in der Bevölkerung hin untersucht. All dies geschieht im Vergleich zu Computeranimation. Außerdem wird versucht, anhand globaler Vergleiche Lösungsansätze zu finden, mit deren Hilfe die Marktfähigkeit von 2D- und Stop-Motion-Animationsfilmen zukünftig gewährleistet bleiben kann. Das Thema lässt sich im Fachbereich Medien einordnen. Besonders Interessenten der Animationsfilmherstellung und Medienstudenten soll diese Abhandlung nützliche und wissenswerte Sachverhalte über die zugrunde liegende Kontroverse näherbringen.
Titandioxid-Nanopartikel zählen zu den meist verwendeten Nanopartikeln der modernen Industrie. Durch ihre Anwendung gelangt ein Großteil ins Abwasser, womit das Verhalten der Nanopartikel in Kläranlagen einen entscheidenden Prozess für die Abschätzung des Umweltrisikos bildet. In dieser Arbeit wurden zwei Laborkläranlagen betrieben und Mittels der Abbauleistungen für TOC, DOC, TNb und Gesamtphosphor auf ihre Funktionsfähigkeit überprüft. Ein Kohlenstoffabbau von im Mittel >90 % wurde angestrebt und auch erreicht. Eine Anlage wurde einmalig mit 62,7 mg Titandioxid-NP beimpft. Die zweite Anlage wurde täglich mit 1 mg/d beimpft. In beiden Versuchen wurde ein Großteil der Nanopartikel (>90 %) im Schlamm wiedergefunden und nur 4 % bis 10 % in der wässrigen Phase. Es wurden keine negativen Auswirkungen auf die Mikroorganismen durch die Nanopartikel beobachtet