006 Spezielle Computerverfahren
Refine
Document Type
- Bachelor Thesis (30)
- Diploma Thesis (9)
- Master's Thesis (4)
Keywords
- Visualisierung , Dreidimensionale Computergrafik (2)
- Webdesign (2)
- Bildanalyse , Fließgewässer (1)
- Bildverarbeitung , Manipulation (1)
- Computergrafik , Dreidimensionale Computergrafik (1)
- Computerspiel , Rollenspiel , Abenteuerspiel , Virtuelle Realität (1)
- Computerspiel , Virtuelle Realität , Test , Gefühl (1)
- Content Management , Responsive Webdesign (1)
- Datenbank , Web-Anwendung (1)
- E-Learning , Computerunterstütztes Lernen (1)
Die vorliegende Bachelorarbeit befasst sich mit dem Begriff Environmental Storytelling. Dabei war es das Ziel eine Definition für die Elemente in Environmental Storytelling aufzustellen und diese zu katalogisieren, sodass diese zukünftig in den Prozess des Level Designs einfließen können. Die Elemente wurden anhand einer kleinen Auswahl an Spielen exemplarisch getestet. Die Bachelorarbeit soll den Menschen helfen, die Narration in das Level Design einbringen wollen. Der Verfasser erhofft sich am Ende einen Katalog anzutreffenden Elementen erstellt zu haben.
In der nachfolgende Bachelorarbeit werden die Chancen und Risiken des User Generated Contents in der externen Unternehmenskommunikation in Bezug auf die Kommentarfunktion untersucht. Zunächst werden durch eine Sekundärforschung die Grundlagen erläutert und es wird auf einzelne Plattformen des User Generated Contens mit Beispielen eingegangen. Danach wird eine Primärforschung mit Experteninterviews mit Experten aus der Praxis durchgeführt. Hauptziel ist es, für Unternehmen am Ende dieser Bachelorarbeit eine Handlungsempfehlung im Umgang mit Rezipienten in den Kommentaren zu geben und zu erfahren, ob die Chancen gegenüber den Risiken überwiegen.
In dieser Arbeit werden die drei Postproduktionsprogramme Adobe Premiere Pro CC, Avid Media Composer und DaVinci Resolve im Hinblick auf die Farbkorrektur von fehlerhaftem Videomaterial mit unterschiedlichen Farbtiefen und Farbunterabtastungen ge-genübergestellt. Das zu bearbeitende Material weist häufig vorkommende Farbverschie-bungen und teils starke Belichtungsfehler auf. Ziel ist es herauszufinden, ob eins der Programme fehler- und codecübergreifend die optimale Lösung zum Kaschieren der Fehler bietet. Anhand der Bearbeitung des zuvor erstellten Rohmaterials wird die Effizienz der Applikationen getestet. Korrekturmöglichkeiten und Bearbeitungsumfang werden dokumentiert und Ergebnisse miteinander verglichen. Als Resultat zeichnen sich Tendenzen ab, welche Software besser für die jeweiligen Anforderungen geeignet ist. Ein Unterschied aufgrund der qualitativen Parameter des Rohmaterials ist ebenfalls festzustellen
Digital image processing has a tremendous impact on our society and it gets bigger and more powerful with the steady growing media industry. Our media industry and most of big companies need their advertising to be absolutely perfect. So the path of digital image processing keeps going on. But how does the journalism handles the, in their case ‘problem‘ with the image processing? Do they have rules or any kinds of regulations in that type of field in the media industry? How can consumers see that pictures are actually manipulated or not? Our modern digital technology has made it very easy to manipulate pictures. Meaning and message of an image can be changed rapidly within a few minutes. All these and more questions get answered with the help of scientific literature during this thesis. Likewise, many different examples and post image processing techniques will be illustrated.
Die vorliegende Arbeit hat es sich zur Aufgabe gemacht, einen effizienten Workflow für die Erstellung einer Destruction-Simulation herauszuarbeiten und Kriterien für ihre Glaubhaftigkeit darzustellen. In einer praktischen Umsetzung werden diverse Schritte zur Erstellung einer Simulation auf ihre Funktionalität überprüft und erklärt. Die Erkenntnisse aus der Analyse, gestützt durch die Aussagen von Spezialisten aus angesehenen VFX-Studios, verdeutlichen, dass viele Faktoren bei der Erstellung einer Simulation zu beachten sind, die deren Verlauf beeinflussen können.
Die vorliegende Arbeit befasst sich mit dem Aufbau einer zentralen Datenbank sowie der Entwicklung eines Webinterfaces. Dazu werden einleitend die nötigen Grundlagen erläutert und die aktuellen Technologien verglichen. Im Hauptteil wird die aktuell eingesetzte Anlagenliste auf Excel-Basis analysiert und Konzepte für die Datenbank und dem Webinterface erstellt. Im Anschluss daran werden die Konzepte umgesetzt und zum Schluss ein Fazit gezogen sowie mögliche zukünftige Entwicklungen angeschnitten.
Ziel dieser Diplomarbeit ist es, das Thema RFID-Technologie in Verbindung mit der Supply Chain zu betrachten und auf das große Nutzenpotenzial hinzuweisen. Risiken steigen in der Supply Chain der Unternehmen immer mehr an. Grund dafür ist die fortschreitende Integration der Unternehmen in ihre Wertschöpfungs-netzwerke da die Anforderungen im globalen Wettbewerb ständig steigen. Daher wird es immer wichtiger die Supply Chain für das eigene Unternehmen transparenter zu machen, diese Möglichkeiten finden sich in der RFID-Technologie. Dashalb werden die Einsatz- und Nutzenpotenziale in dieser Arbeit betrachtet und aufgezeigt. Zum Schluss werden die Ergebnisse zusammengefasst und erläutert.
Die vorliegende Bachelorarbeit analysiert Anforderungen und Technologien, die es ermöglichen eine dynamische Website plattformübergreifend zu erstellen. Der Untersuchungsmethode des Surfverhaltens von Usern liegt einer Online-Befragung zugrunde. Die Ergebnisse werden vergleichend mit der Studie von Shaikh und Lenz aus dem Jahr 2005 ausgewertet. Resultierend aus Grundlagen, Ergebnissen, Literatur und technischen Möglichkeiten werden Richtlinien zur Erstellung einer dynamischen Website, welche sich jeder Bildschirmgröße stufenlos anpassen soll, hergeleitet.
Die vorliegende Bachelorarbeit handelt von den Nutzungsmöglichkeiten des von der Walt Disney Company entwickelten Systems zur Texturierung von 3D-Modellen: "Ptex". In der Arbeit wird Ptex mit UV-basiertem Texture Mapping verglichen, besonders unter der Prämisse der Entwicklung von Videospielen und dem damit einhergehenden Workflow. Am Ende der Arbeit wird besonders auf die Stärken und Schwächen der unterschiedlichen Texturierungsmöglichkeiten eingegangen.
Die vorliegende Arbeit befasst sich mit der Erstellung einer geeigneten Arbeitsumgebung (Entwicklungssystem, Kernel, Anwendung, usw.) für ein Gerät zur Datenfernauslesung von Zählerverbrauchsdaten. Zunächst erfolgt eine Beschreibung des bestehenden Fernauslesesystems. Aus den Anforderungen werden die benötigten Funktionalitäten erarbeitet. Im praktischen Teil wird der Bootloader, der Betriebssystemkern, die notwendigen Zusatzwerkzeuge und die eigentliche Anwendung entwickelt und in Betrieb gesetzt