Refine
Document Type
- Bachelor Thesis (2)
- Diploma Thesis (1)
Language
- German (3)
Keywords
- Automatische Spracherkennung (3) (remove)
In Österreich leben 6,7 Prozent der Bevölkerung miteiner körperlichen Behinde-rung. Einige leben in Institutionen, wo ihnen rund um die Uhr ein Angebot zur Pflege und Betreuung zur Verfügung steht. Vielen aber erlaubt der Grad der Be-hinderung ein Leben in einem privaten Umfeld, wo sie ihren Alltag unterstützt von Angehörigen bzw. persönlichen Assistenzdienstenweitestgehend selbständige bewältigen. Technische Assistenzsysteme gewinnen in diesem Bereich zunehmend an Bedeutung. Speziell auf dem Gebiet der Sprachsteuerung beginnt man das Potential zu entdecken. Diese Arbeit untersucht, wie eine sprachgesteuerte Fernbedienung aufgebaut sein muss, um Menschen mit körperlichen Beeinträchtigungen im Wohnumfeld Unterstützung bei der Bewältigung des Alltags bieten zu können.
Vor Ihnen liegt die Bachelorarbeit „Prototypische" Systemintegration und Evaluation von Open Source Sprachmodellen zur automatischen Spracherkennung gesprochener deutscher Texte“. Durch mein Praktikum im Bereich der Audioanalyse und Transkribierung kam ich auf die Idee, mich ausführlicher mit dem Thema zu beschäftigen. Ziel war es, “robuste“ Spracherkenner zu finden und verschiedene Ansätze zu präsentieren, die für das Aufgabengebiet der Forensik von Nutzen sein könnten. Die Nachforschungen waren nicht immer einfach, da die vorhandenen freien Spracherkenner Projektarbeiten via Github sind und diese kompliziert zu verstehen bzw. zu implementieren sind. Doch nach einer umfangreichen Analyse der zur Verfügung stehenden Modelle gelang es mir, die Forschungsfrage zu beantworten.
Lippensychronisation und real erscheinende Charakteranimationen sind in der heutigen Zeit ein integraler Bestandteil von Videospielen. Diese Arbeit widmet sich der Frage mit welchen Techniken es der Spieleindustrie gelingt, die digitalen Charaktere lebendig wirken zu lassen und ihnen Stimmen zu verleihen. Hierzu werden zunächst einige Grundlagen wie etwa verschiedene Animationsmethoden, Arten der Lippensychronisation und emotionale Stimulierungen beleuchtet und anschließend der Prototyp einer Software konzipiert und entwickelt, die es 2D - Charakteren erlaubt, möglichst automatisiert lippensychron und in verschiedenen Emotionslagen zu sprechen. Der resultierende Prototyp wird anschließend im Zuge eines Playtests auf seine Praktikabilität geprüft und die verwendeten Ansätze (Motion Capture und Key Frame - Animation mit Phonem Analyse) werden miteinander verglichen und als Ergebnis der Ausarbeitung wird geschlussfolgert, welche Variante sich als besser geeignet erwiesen hat. Es wird ein Ausblick auf künftige Möglichkeiten für den Bereich der 3D - Animation und die Automatisierung mittels Text-to-Speech gegeben. Darüber hinaus, wird das Zukunftspotential die Spieler in kommenden Videospielen nicht mehr ausschließlich die Entscheidungsgewalt über die Sätze ihres Charakters, sondern auch dessen Emotionen besitzen zu lassen, vorgestellt.