|
Titel: |
Human Interface - Steuerung von grafischen Informationssystemen mittels Microsoft Kinect |
|
AutorIn: |
Werner Karl Lindner |
|
Typ: |
Masterarbeit
|
|
ÖFOS 2012 Code: |
|
|
Institution: |
Ferdinand Porsche FernFH, Wiener Neustadt, WIMA |
|
Betreuung: |
Oliver Jorns |
|
Datum: |
2013 |
|
Abstract (de): |
Personal Computer haben mittlerweile in vielen Bereichen des täglichen Lebens Einzug genommen. Sie sind sozusagen ubiquitär und allgegenwärtig vorhanden. In vielen Anwendungsbereichen sind sie bereits so weit wie möglich unauffällig integriert bzw. verborgen. Visionen wie z.B. „A computer on every desk in every home“ oder „Information at your fingertips“ wurden schon lange überholt. Personal Computer, egal in welcher Ausprägung sind mittlerweile allgegenwärtig - ob als Desktop, Notebook, Tablet oder integriertes (embedded) System. Diese Masterarbeit beschäftigt sich mit einer Lösung zur Interaktion mit dem Computer, die sich von der altbekannten, herkömmlichen Steuerung unterscheidet. Zu Beginn der Computerära wurden Eingaben mittels Lochkarten oder Magnetstreifen durchgeführt. Im nächsten Entwicklungsschritt waren Eingaben mittels Tastatur möglich und nach der Einführung grafischer Oberflächen war zusätzlich eine Eingabe mittels Maus oder Stift möglich. Diese Arbeit zeigt den nächsten Evolutionsschritt und bedient sich eines neuen Eingabegerätes, des sogenannten Microsoft Kinect Sensors. Dieser Sensor wurde anfänglich für die Spielkonsole Xbox 360 entwickelt und bietet die Möglichkeit, Spiele und Applikationen auf der Konsole mittels Gesten oder Sprache zu steuern. Kurze Zeit nach der Einführung des Sensors wurde auch im produktiven Umfeld damit experimentiert und es wurden bereits Lösungen losgelöst von der Konsole entwickelt. Damit sind die berührungslose Steuerung des Computer Systems und die Eingabe von Anweisungen bzw. von Befehlen unter Benutzung der menschlichen Stimme und Zuhilfenahme des Körpers möglich. Gesagtes wird interpretiert und dann entweder als Befehl weitergegeben oder falls es sich um eine Angabe von Daten handelt, in das System als Metainformation eingegeben und abgelegt. Durch die Bewegung der Hände im Raum wird ein Cursor auf einem Monitor bewegt, ohne eine physische Verbindung zum Computer zu haben. Das Auswählen von Schaltflächen mit den Händen erfolgt durch kurzes Verweilen mit der jeweiligen Hand auf einer angezeigten Schaltfläche. Eine weitere Möglichkeit der Programmsteuerung ist die Zuhilfenahme von Gesten und Bewegungen. Durch Wegstrecken der linken Hand in einem Winkel von ca. 35 Grad wird eine gewisse Funktion gestartet, z.B. der Aufruf eines Kontextmenüs. Mittels einer Wischbewegung von rechts nach links oder umgekehrt kann eine andere Befehlsfolge ausgelöst werden, z.B. das Um- oder Zurückblättern auf eine andere Seite des Programmes.
|
|
Abstract (en): |
Personal computers now have entered into many areas of daily life. They are available in a ubiquitous and pervasive form. In many applications they are already integrated discreetly or hidden as much as possible. Visions such as "A computer on every desk in every home" or "information at your fingertips" are already outdated so far. Personal computers, no matter which form factor are now ubiquitous - whether as a desktop, laptop, tablet or integrated (embedded) system. This master thesis deals with a solution for interacting with the computer, which differs from the well-known, conventional control. At the beginning of the computer era entries were performed by using punched cards or cards with magnetic strips. In the next development step entries were possible by using the keyboard. After the introduction of graphical user interfaces input via mouse or pen was also possible. This work shows the next step in the evolution and presents a new input device, called the Microsoft Kinect sensor. This sensor was initially developed for the Xbox 360 gaming console. It offers the possibility for games and applications on the console to be controlled using gestures or voice. Shortly after the introduction of the sensor experimentation within productive environment was started. Solutions have already been developed to be used without the Xbox 360 console. Thus, the contactless control of a computer system and the input of instructions or commands using the human voice and body are possible. Spoken commands are interpreted as commands for the computer or data entered into the system and stored as Meta information. With hand movement a cursor on a monitor is controlled without a physical connection to the computer. Selecting a button is accomplished by hovering over the relevant button and stay for an amount of time over the button. Another possible way for program control is the use of gestures and movements. By putting away the left hand at an angle of about 35 degrees, a certain function is started, for example, calling a context menu. By means of a wiping movement from right to left or vice versa, a different instruction sequence can be triggered, for example, scrolling to the previous page or to another page of the program. A further use of the solution to log on to the system would be possible through the implementation of a face recognition. Based on a three-dimensional detection of objects it is possible to recognize human head or body parts. After validation, a comparison with a stored object, access to the system or access to areas of the information system could be granted. This work examines the use within public-access locations. A contactless control option for computer-based information systems is implemented. With that it can be completely dispensed from conventional input devices such as mouse, keyboard or touch screen. In this way re-purchase and maintenance costs in relation to the input device can be minimized or completely eliminated. The elimination of disposal costs for broken periphery contributes positively to the environment and has a positive economic output. A further scenario of use could be the control of information terminals, where direct physical contact should be avoided because of vandalism. It could also be used in the manufacturing business for controlling machines or in areas with mass dirt where a contactless input advantage would be conceivable. In the preparation of the master thesis, a prototype was developed and will be presented. Important parts of the program code as well as the installation of the base environment are demonstrated and explained in this work. |
|
Keywords (de): |
Microsoft, Kinect, Human Interface, Steuerung, Körper, Skelett, Computer, Natural User Interface |
|
Keywords (en): |
|
|
|
|
|
|