Abstract (deu)
Bewegungen eines Akteurs direkt auf ein virtuelles 3D Modell zu übertragen ist eine effektive Art um Animationen zu generieren. Doch es gibt noch die Möglichkeit mehr
als nur den Körper, sondern auch Emotionen auf Modell übertragen. Die dadurch
gewonnenen Animationen wirken noch realistischer und sind künstlich sehr schwierig
und Zeitaufwändig in einer solchen Qualität zu erzeugen. Das Ziel der Arbeit ist die
Entwicklung eines lauffähigen Prototypen der ein solches Performance capturing system realisiert. Es soll einer Person, durch live Capturing, ermöglich werden komplexe
Bewegungsabläufe und Emotionen auf einen 3D Charakter zu übertragen und diese,
falls gewünscht, aufzunehmen. Diese Animation Daten sollen auf ein beliebiges humanoides 3D Modell anwendbar sein. Der capturing Prozess kann im Wesentlichen in
drei Hauptbereiche unterteilt werden. Der ganze Körper, beziehungsweise das Skelett,
des Acteurs wird mit Hilfe einer Kinect V2 getrackt. Bewegungen der Finger werden
durch 5DT Data Gloves aufgezeichnet. Das Gesicht wird mit einer Webcam gefilmt.
Dabei werden Feature Punkte extrahiert um durch diese Bewegungen/Emotionen auf
das Gesicht des des Modells zu übertragen. Der Prototyp wird für die Unity Engine
entwickelt und voraussichtlich in der Endversion als Asset Package verfügbar sein, um
einen einfachen Import zu gewährleisten. Damit der Import problemlos funktioniert ist
es wichtig, dass mindestens Unity version 5 verwendet wird. Andernfalls werden die
verwendeten Plugins nicht unterstütz. Des Weiteren ist der Prototyp so entwickelt, dass
Komponenten beliebig geändert werden können. Auch das Hinzufügen neuer tracking
verfahren ist möglich. Dadurch ist es möglich den Prototypen individuell an zu passen
und zu verbessern. Mit den Analysetools aus Unity wurde der Prototyp im Hinblick auf
seine Leistungsfähigkeit getestet. Außerdem wurde er anhand einer qualitativen Analyse
anderen Trackinglösungen gegenübergestellt. Die daraus gewonnenen Resultate sind in
der Arbeit dokumentiert.