Das Setup macht einen bescheuerten Eindruck. Eine Testperson schnallt sich einen aus Holz gebastelten Rucksack auf den Rücken, in den kommt ein Notebook rein. Dann steckt sich die Person ein Headset ins Ohr, schnallt sich einen komischen breiten Gürtel um und setzt sich einen blauen Plastikhelm auf.
Und auf dem ist eine Kinect-Erweiterung der Xbox 360 montiert. Wenn die Person dann mit einer undurchsichtigen Brille vor den Augen losmarschiert, wird klar worum es geht: eine auf Kinect basierte Navigationshilfe für Blinde beziehungsweise Menschen mit Sehbehinderung.
Die Kinect-Hardware erfasst die Umgebung, das Notebook wertet sie aus und eine Roboterstimme teilt über das Headset mit, was Sache ist. Beispielsweise, dass sich die Person einem Hindernis nähert, eine verschlossene Tür erreicht wird. Die Umgebungsinformationen werden dabei nicht nur sprachlich sondern auch über den Gürtel um den Bauch mitgeteilt.
In dem stecken vibrierende Motoren, die beispielsweise auf Hindernisse hinweisen. Eine perfekte Umgebungserkennung gibt es aktuell noch nicht. Zur Navigation sind in der Testumgebung bei Abzweigungen große Schilder mit "Barcodes" befestigt, die von der Kinect-Kamera beziehungsweise Software erkannt werden. Hier ein Video der Tüftler:
Das Projekt stammt von der Human-Computer Interaction Gruppe der Universität Konstanz, alle Details und Bilder zum Projekt gibt es auf deren Webseite: NAVI – Navigational Aids for the Visually Impaired
Michael Nickles meint: Okay, das mit der "Brille für Blinde" in der Überschrift ist hier gewiss übertrieben - aber das wird garantiert früher oder später dabei rauskommen! Ich glaube sogar, dass es sehr schnell passieren wird. Aktuell ist die Lösung aus Konstanz natürlich noch ein recht unhandliches "Gebastel", das allerdings enormes "Schrumpfpotential" hat.
Ein Smartphone mit "augmented reality"-Software kann sich längst jeder leisten und es wiegt auch kaum was. In die aufsetzbare "Brille für Blinde" müssen ja eigentlich nur die Kinect-Sensoren rein, den Rest kann dann ein billiges "Smartphone" in der Hosentasche erledigen.
Die Rechenleistung von Smartphones reicht für 3D-Umgebungserkennung natürlich noch nicht aus, aber das kann ja über die "Cloud" erledigt werden. Fairerweise muss gesagt werden, dass die Idee nicht restlos neu ist.
Die Hochschule für Technik, Wirtschaft und Kultur (HTWK) in Leipzig hat bereits 2009 eine ähnliche Lösung vorgestellt. Drüber berichtet hat unter anderem die Leipziger Internet Zeitung