Information
Die Microsoft Kinect ist eine Kamera, welche für die Spielkonsole Xbox entwickelt wurde. Das Besondere an dieser Kamera ist ihre Möglichkeit, neben einem normalen RGB Bild, ein Tiefenbild ihrer Umgebung zurückzugeben. Damit wird es möglich komplexere Computer Vision Aufgaben zu implementieren. Darüber hinaus bietet das sog. Microsoft Kinect SDK die Möglichkeit das Skelett einer Person zu erkennen. Durch das "Skeleton-Tracking" ist es möglich festzustellen, wo die Gelenke einer Person sind und welche Gesten und Bewegungen sie ausführt. Leider ist dieses SDK nur für Windows erhältlich und wir arbeiten daher vor allem mit dem Titelbild der Kinect Kamera.
Version 1 und Version 2
Mittlerweile gibt es zwei Versionen der Kinect Kamera: Kinect v1 und Kinect v2. Der wesentliche unterschied besteht in der Auflösung und der Geschwindigkeit mit welcher die Kameras arbeiten. Hier ein kurzer Vergleich der Spezifikationen
Version | Kinect v1 | Kinect v2 |
---|---|---|
Auflösung RGB | 640x480 | 1920x1080 |
Framerate | 30fps | 30fps |
Auflösung Tiefenbild | 320x240 | 512x424 |
Maximale Distanz | ca. 450cm | ca. 450cm |
Minimale Distanz | ca. 40cm | ca.50 cm |
USB Interface | USB 2.0 | USB 3.0 |
Generell ist also vor allem die Auflösung des RGB Bildes und des Tiefenbilds mit der Version 2 verbessert worden. Ein weiterer kleiner Vorteil der v2 besteht darin, dass sie mit einer Stativschraube befestigt werden kann.
Programmierung
Wir verwenden die Library "OpenKinect" von Daniel Shiffman. Es existiert auch eine Library von Max Rheiner (ehem. Dozent am IAD), leider funktioniert diese "SimpleOpenNI" nicht mehr für die neue Version der Kinect Kamera. Wer jedoch die Möglichkeiten des Selektion-Trackings aufprobieren möchte, dem sei ein Blick in die Beispiele empfohlen.
Zunächst muss die Library, wie alle anderen Bibliotheken in Processing installiert werden. Dies geht am einfachsten über "Sketch > Library importieren ... > Library hinzufügen". In das Suchfeld kann nun "Open Kinect for Processing" eingetragen werden. Ein Klick auf "Install" installiert die Library und die zugehörigen Beispiele.
Um die Library nutzen zu können, muss diese importiert werden:
import org.openkinect.processing.*;
Danach muss eine Referenz auf das Kinect Objekt gesetzt werden:
Kinect kinect;
Im setup() wird das Objekt dann initialisiert:
void setup() {
kinect = new Kinect(this);
kinect.initDevice();
}
Wird eine Kinect Kamera v2 verwendet, muss die Referenz und Initialisierung entsprechend angepasst werden:
Kinect2 kinect;
void setup() {
kinect = new Kinect2(this);
kinect.initDevice();
}
Sind die obigen Schritte erfolgt kann im Weiteren direkt auf die Informationen der Kinect zugegriffen werden. Die Library macht uns fünf Informationen zugänglich:
PImage (RGB)
der Kinect Videokamera.PImage (grayscale)
der Kinect IR Kamera.PImage (grayscale)
ein Tiefenbild, in dem die Helligkeit der Pixel für den Abstand steht (Heller = näher).PImage (RGB)
ein Tiefenbild, bei dem die Farbe für die Entfernung steht.int[] array
ein Array, welches die "Rohdaten" der Entfernung beinhaltet (0-2048 v1 und 0-4500 v2).
RGB Bild
Um das Tiefenbild der Kamera auszulesen kann die gleiche Methode verwendet werden, wie sie schon bei einer normalen Webcam zu Einsatz kam:
PImage videoImage = kinect.getVideoImage();
Gezeichnet werden kann das Bild mit:
image(videoImage, 0, 0);
Neben dem zeichnen des Bildes in der draw() Funktion, gibt es auch die Möglichkeit, das Bild asynchron zu zeichnen. Das bedeutet, es wird nur dann ein Bild gezeichnet, wenn ein neues vorhanden ist. Die entsprechende Funktion lautet:
void videoEvent(Kinect k) {
// There has been a video event!
}
IR Bild
Um das Infrarotbild der Kamera auszulesen verwenden wir:
kinect.enableIR(true);
Ein Nachteil der Kinect v1 ist, dass nur eine Art von Bild auf ein Mal abgerufen werden kann (entweder IR oder RGB). Deshalb wird mit der Funktion getVideoImage() immer das zuletzt gewählte Bildformat zurückgegeben:
PImage videoImage = kinect.getVideoImage();
PImage irImage = kinect.getIrImage();
Tiefenbild
Um das Tiefenbild als Graustufen zurückzubekommen wird folgendes gemacht:
PImage depthImage = kinect.getDepthImage();
Gezeichnet wird es mit:
image(depthImage, 0, 0);
Tiefenarray
Der Nachteil des Graustufen-Tiefenbildes ist es, dass alle Entfernungsinformationen auf Werte zwischen 0 bis 255 (Helligkeit) verteilt werden. Tatsächlich kann die Kinect Kamera aber eine viel genauere Auflösung der Tiefeninformationen liefern. Dazu ist es jedoch nötig, das Tiefenarray aufzurufen und auszulesen. Dies geschieht über:
int[] depth = kinect.getRawDepth();
Angleichung
Unfortunately, b/c the RGB camera and the IR camera are not physically located in the same spot, there is a stereo vision problem. Pixel XY in one image is not the same XY in an image from a camera an inch to the right. The Kinect v2 offers what's called a "registered" image which aligns all the depth values with the RGB camera ones. This can be accessed as follows:
PImage img = kinect2.getRegisteredImage()
So, there you have it, here are all the useful functions you might need to use the Processing kinect library:
initDevice()
— start everything (video, depth, IR)activateDevice(int)
- activate a specific device when multiple devices are connectinitVideo()
— start video onlyenableIR(boolean)
— turn on or off the IR camera image (v1 only)initDepth()
— start depth onlyenableColorDepth(boolean)
— turn on or off the depth values as color imageenableMirror(boolean)
— mirror the image and depth data (v1 only)PImage getVideoImage()
— grab the RGB (or IR for v1) video imagePImage getIrImage()
— grab the IR image (v2 only)PImage getDepthImage()
— grab the depth map imagePImage getRegisteredImage()
— grab the registered depth image (v2 only)int[] getRawDepth()
— grab the raw depth datafloat getTilt()
— get the current sensor angle (between 0 and 30 degrees) (v1 only)setTilt(float)
— adjust the sensor angle (between 0 and 30 degrees) (v1 only)
For everything else, you can also take a look at the javadoc reference.