006.454 Automatische Spracherkennung
Refine
Document Type
- Bachelor Thesis (3)
Language
- German (3)
Keywords
- Automatische Spracherkennung (2)
- Maschinelles Lernen (1)
- Sprachverarbeitung (1)
- Videospiel (1)
Institute
Die immer größer werdenden virtuellen Welten von Computerspielen mit spannendem und glaubhaftem Inhalt zu füllen, ohne die Entwicklungszeit enorm in die Höhe zu treiben, ist eine der großen Herausforderungen für Spielentwickler heutzutage. Eine Möglichkeit dieses Problem anzugehen ist der Einsatz computergestützter Generierungsalgorithmen um manuellen Aufwand zu verringern. Die vorliegende Arbeit befasst sich mit der Umsetzung dreier Data-To-Text-Ansätze zum Zweck der automatischen Generierung von Questtexten aus einer Datenstruktur in der Spieleentwicklungsumgebung Unity. Die entstehenden Implementierungen werden im Anschluss evaluiert auf Eignung für den Anwendungsfall. Folgende Methoden zur Realisierung der Texte werden angewandt: Templating, Templating mit Template-Generierung aus einer kontextfreien Grammatik, sowie die Oberflächenrealisierungsbibliothek SimpleNLG
Vor Ihnen liegt die Bachelorarbeit „Prototypische" Systemintegration und Evaluation von Open Source Sprachmodellen zur automatischen Spracherkennung gesprochener deutscher Texte“. Durch mein Praktikum im Bereich der Audioanalyse und Transkribierung kam ich auf die Idee, mich ausführlicher mit dem Thema zu beschäftigen. Ziel war es, “robuste“ Spracherkenner zu finden und verschiedene Ansätze zu präsentieren, die für das Aufgabengebiet der Forensik von Nutzen sein könnten. Die Nachforschungen waren nicht immer einfach, da die vorhandenen freien Spracherkenner Projektarbeiten via Github sind und diese kompliziert zu verstehen bzw. zu implementieren sind. Doch nach einer umfangreichen Analyse der zur Verfügung stehenden Modelle gelang es mir, die Forschungsfrage zu beantworten.
Lippensychronisation und real erscheinende Charakteranimationen sind in der heutigen Zeit ein integraler Bestandteil von Videospielen. Diese Arbeit widmet sich der Frage mit welchen Techniken es der Spieleindustrie gelingt, die digitalen Charaktere lebendig wirken zu lassen und ihnen Stimmen zu verleihen. Hierzu werden zunächst einige Grundlagen wie etwa verschiedene Animationsmethoden, Arten der Lippensychronisation und emotionale Stimulierungen beleuchtet und anschließend der Prototyp einer Software konzipiert und entwickelt, die es 2D - Charakteren erlaubt, möglichst automatisiert lippensychron und in verschiedenen Emotionslagen zu sprechen. Der resultierende Prototyp wird anschließend im Zuge eines Playtests auf seine Praktikabilität geprüft und die verwendeten Ansätze (Motion Capture und Key Frame - Animation mit Phonem Analyse) werden miteinander verglichen und als Ergebnis der Ausarbeitung wird geschlussfolgert, welche Variante sich als besser geeignet erwiesen hat. Es wird ein Ausblick auf künftige Möglichkeiten für den Bereich der 3D - Animation und die Automatisierung mittels Text-to-Speech gegeben. Darüber hinaus, wird das Zukunftspotential die Spieler in kommenden Videospielen nicht mehr ausschließlich die Entscheidungsgewalt über die Sätze ihres Charakters, sondern auch dessen Emotionen besitzen zu lassen, vorgestellt.