005.12 Softwareentwicklung
Refine
Document Type
- Bachelor Thesis (43)
- Diploma Thesis (9)
- Master's Thesis (5)
Year of publication
Keywords
- Softwareentwicklung (45)
- Computerspiel (9)
- Videospiel (6)
- Programmierung (3)
- Design (2)
- Dokumentenverwaltungssystem (2)
- Softwarearchitektur (2)
- Virtuelle Realität (2)
- Webentwicklung (2)
- Algorithmus (1)
Die Diplomarbeit "AccuControlCenter" von Maximian Geyer beschäftigt sich mit der Erweiterung einer in C# programmierten Software zur Steuerung, Überwachung und Dokumentation von Prozessen in der Endmontage von Akkumulatoren. Das Hauptziel der Arbeit ist die Automatisierung der Endmontage, um Fehleranfälligkeit zu reduzieren, Arbeitsschutz zu erhöhen und Kosten zu senken. Durch eine Effizienzsteigerung in der Endmontage wird der wertschöpfende Prozess der Akkumulatorenaufbereitung optimiert. Das Kernelement des ACC ist das Beschreiben und Auslesen von Mikrocontrollern auf intelligenten Akkupacks. Die Arbeit gliedert sich in sechs Hauptkapitel, die Einleitung, Grundlagen, Planung, Implementierung, Deploymentprozess und Fazit. Dabei werden theoretische Grundlagen, technische Aspekte und die praktische Umsetzung der Softwareerweiterung behandelt. Die Arbeit liefert einen detaillierten Einblick in die Programmierung des ACC, die verwendeten Technologien und Protokolle sowie die Systemarchitektur und Anforderungen an die Software. Abschließend werden die Einsparungen in wirtschaftlicher Hinsicht beleuchtet um den Nutzen herauszukristallisieren und mögliche künftige Erweiterungen erörtert.
Die vorliegende Masterarbeit befasst sich mit der Entwicklung einer Android-Applikation zur Alarmierung der Bevölkerung bei vermissten Kindern in Deutschland. Dabei richtet sich der Fokus zuerst auf das aus den USA stammende AMBER-Alert-System – ein System zur Suche vermisster Kinder – und im weiteren Verlauf auf den aktuellen Stand eines solchen Systems innerhalb Deutschlands. Bisher haben sich nur wenige Arbeiten mit der Umsetzung einer solchen App auseinandergesetzt. Aus diesem Grund liegt der Schwerpunkt dieser Arbeit auf der Implementierung einer prototypischen App zur Alarmierung der Bevölkerung bei vermissten Kindern in Deutschland. Diesbezüglich werden bereits existierende Applikationen betrachtet und daraus ein konzeptioneller Entwurf entwickelt. Dieser Entwurf dient als Grundlage für die prototypische Implementierung der App.
Die vorliegende Arbeit stellt eine effektive Möglichkeit dar, um einen Großteil der Bevölkerung in Deutschland zur schnellen Suche und sicheren Bergung bei vermissten Kindern zu erreichen.
Seit 2018 befindet sich das Projekt „BuggyTech Engine“ an der Hochschule Mittweida in studentischer Entwicklung. Auf dieser Game Engine soll das von der Autorin konzipierte Spiel „Neon Nova“ laufen, wofür sie ein Game Design Document (GDD) erstellte. Das GDD stellt als grundlegendes Dokument, welches sämtliche relevanten Aspekte eines zu entwickelnden Spiels beschreibt, ein Herzstück in der Videospielentwicklung dar. Es dient als zentrales Werkzeug für das Entwicklerteam, um gemeinschaftlich auf ein klares Ziel hinzuarbeiten. In der klassischen Softwareentwicklung werden Anforderungen und Spezifikationen an eine zu entwickelnde Software detailliert in Form eines Lastenheftes verschriftlicht, welches für die Entwickler ähnliche Funktionen hat, wie das GDD. Diese Konzepte werden, neben der Erarbeitung zusätzlicher Wissensgrundlagen, zunächst dargestellt und auf Inhalte, sowie Vor- und Nachteile untersucht. Im Hauptteil dieser Arbeit wird die Eignung eines GDD als Grundlage für die Anforderungsanalyse einer Game Engine am Beispiel von Neon Nova und der BuggyTech Engine untersucht. Der Prozess der Erstellung des Lastenheftes wird dargelegt und die Ergebnisse vorgestellt. Zudem wurden Datenmodelle und UI Layouts für die spezifische Anwendung in de BuggyTech Engine konzipiert. Abschließend wird ein Fazit über den Prozess und die Geeignetheit der aufeinander aufbauenden Arbeitsweise der beiden Dokumente gezogen, welche normalerweise nicht miteinander in Kontakt kommen. Das Ergebnis der Arbeit ist ein vollständiges, für die Weiterentwicklung der BuggyTech Engine nutzbares Lastenheft.
Die tägliche Arbeit von Softwareentwicklern ist es, Software so zu schreiben, dass sie auch in Zukunft so schnell und flexibel entwickelt werden kann wie am ersten Tag. Dafür stehen ihnen zahlreiche Methoden und Tools zur Unterstützung zur Verfügung. Jedoch stellt die Einrichtung und erstmalige Anwendung solcher Hilfsmittel oftmals eine Hürde dar, vor allem, wenn man selbst in diesem Bereich noch keine Erfahrung gesammelt hat. In dieser Arbeit wird dieser Ansatz durch die Entwicklung und Anwendung einer statischen Code-Analyse und Modultests auf eine bestehende NodeJS-Software verfolgt. Diese Software ist Teil einer übergeordneten Projektinfrastruktur, auf deren Komponenten diese Testverfahren später ebenfalls angewendet werden sollen. Für die Evaluation werden etablierte Tools zur Implementierung und Automatisierung der Testprozesse ausgewählt. Der Vergleich dieser Tools erfolgt dann auf der Grundlage gewichteter Kriterien die anhand einer subjektiven Einschätzung bewertet werden. Zunächst werden die Tools JSLint, JSHint und ESLint für die statische Codeanalyse evaluiert. Dann werden Unit-Tests entworfen und definiert und anschließend mit den Unit-Test-Frameworks Mocha, Jest und Vitest implementiert. Schließlich werden die Tests mit einem CI-Tool automatisiert. Aus der Vielzahl an Plattformen wurden BitBucket Pipelines, CirleCI und Buddy als Testobjekte ausgewählt. Es stellte sich heraus, dass eine Vielzahl projektspezifischer Faktoren bei der Auswahl der CI Tools eine Rolle spielen. Die Evaluierung der Tools lieferte eine solide Grundlage für weitere Tests und damit Vertrauen und Sicherheit in die Zukunft von EnjineIO. Diese Arbeit ist besonders für Softwareentwickler interessant, die noch keine Erfahrung mit Softwaretests gemacht haben und einen Einblick in dieses Thema erhalten möchten. Zudem dient sie dazu, einen Einblick in die Besonderheiten der genannten Softwaretest-Tools zu erhalten, wenn ein Team den Wechsel auf eines davon plant.
Diese Arbeit erläutert, wie automatisiert aus den derzeit gängigen Browsern - namentlich Internet Explorer, Microsoft Edge, Google Chrome, Mozilla Firefox sowie Opera, die Datenbanken aus forensischen Windows-Datenträgerkopien extrahiert werden können. Dabei werden diese Browser in dem Datenträgerabbild mittels Registry-Verweisen festgestellt und anschließend ihre Datenbanken aus den gängigen Pfaden extrahiert. Daraufhin werden alle Verläufe mittels einer dynamischen Liste gefiltert. Als Ergebnis entsteht ein neues Datenträgerabbild mit den enthaltenen Datenbanken der Browser. Das Ergebnis soll den Ermittlern Zeit bei der Durchsuchung der Browserdaten sparen, indem der Verlauf bereits gefiltert vorliegt.
Die vorliegende Arbeit befasst sich mit der automatisierten Erstellung von SPS – Software, sowie der automatischen Generierung von visualisierten Anlagenfunktionsobjekten. Die Hauptziele der Arbeit sind es, Schnittstellen- bzw. Programmierfehler durch eine standardisierte Schnittstellensoftware zu reduzieren, sowie den Programmieraufwand sowohl auf der Steuerungstechnischen- als auch auf der Anlagenvisualisierungsseite zu reduzieren. Ein weiteres Ziel ist es, Inbetriebnahmezeiten bei komplexen Automatisierungsanlagen zu optimieren und dadurch Kosten zu senken. Ebenso soll ein geeignetes Hard- und Softwaresystem für die Umsetzung der Zielvorgaben gefunden werden.
COBRA Webserver
(2014)
Als Zielsetzung habe ich mir vorgenommen, mich mit der Programmierung von speicherprogrammierbaren Systemen auseinanderzusetzen. Die für die Industrielinie verwendeten SPS-Karten bilden bekanntlich das Gehirn und zugleich das Herzstück der Anlage. Aufgrund der in der Gebäudetechnik stetig progressiven Technologie, bestrebt man eine kommunikative Vernetzung mit und zwischen den peripheren Gewerken an. Durch die Anbindung eines Webservers sollen künftig sämtliche Aktivitäten über eine selbsterstellte Website abrufbar sein. Bereits im Forschungsmodul konnten erste Erkenntnisse und Eindrücke von HTML in der Erstellung von Websites gesammelt werden. Ziel der Diplomarbeit ist die wesentliche Überarbeitung der Seiten, damit, beziehend auf die Firmensite, ein annähernd adäquates Niveau erreicht werden kann. In dieser Komplettierungsphase sind unter anderem die Programme für SPS und Display zu aktualisieren.
Die Arbeit soll ergründen, wie der Entwicklungsablauf automatisiert werden kann und welche Ressourcen- und Zeiteinsparungen aus dieser Automatisierung folgen. Dabei gilt es zu evaluieren, wie ein geeigneter Entwicklungsprozess aussieht und welche Tools genutzt werden können, um diese Einsparungen zu realisieren. Im besten Fall soll die Anwendung ohne manuellen Aufwand nach jeder Änderung auf Qualität und Sicherheit geprüft und danach direkt ausgerollt werden. Dadurch soll es ermöglicht werden, einer Änderung die daraus resultierenden Fehler eindeutig zuzuordnen. Des Weiteren soll eine Lösung gefunden werden, die Fehler auf Grund von unterschiedlichen Entwicklungsumgebungen beheben kann. Somit soll ebenfalls Entwicklungszeit gewonnen
werden.
Die vorliegende Arbeit befasst sich mit der dynamischen Speicherung und visuellen Darstellung von Metainformationen im Data Warehouse und Business Intelligence Umfeld. Ziel der Diplomarbeit ist es, eine Softwarelösung zu entwickeln, die es ermöglicht, Metainformationen dynamisch zu speichern und in Form von Graphen schnell und einfach zu visualisieren.
Im Data Warehouse und Business Intelligence Umfeld gibt es eine Vielzahl von Metainformationen, die in strukturierter Form (XML/CSV-Dateien, Datenbank-Tabellen usw.) vorliegt, aber über keine visuelle Darstellung verfügt. Auf Basis der geplanten visuellen Darstellung in Form von Graphen im Rahmen der Diplomarbeit kann die „Data-Lineage“ dargestellt werden und „Impact Analysen“ sind dadurch möglich.
Die Softwarelösung ermöglicht den Benutzern, mittels der graphischen Darstellung auf die benötigten Informationen zuzugreifen.