Hinweis zu Affiliate-Links: Alle Produkte werden von der Redaktion unabhängig ausgewählt. Im Falle eines Kaufs des Produkts nach Klick auf den Link erhalten wir ggf. eine Provision.

Mit diesem Headset können blinde Menschen Gesichter erkennen

von Juliane Görsch
Horus ist eine Kombination aus Headset und Prozessor, die blinden und sehbehinderten Menschen im Alltag hilft. Das Gadget nutzt Deep-Learning-Algorithmen, um dem Nutzer die Umgebung zu beschreiben, Texte vorzulesen und Gesichter zu erkennen.

Gadgets und Apps, die blinden und sehbehinderten Menschen den Alltag erleichtern gibt es einige – jedes mit seinem eigenen Ansatz. Mit der App Be My Eye können Sehende blinden Menschen per Video-Chat ihr Augenlicht leihen. BrainPort V100 wiederum lässt die Umgebug über die Zunge wahrnehmen. Horus nutzt hingegen Deep-Learning-Technologie, um Menschen mit beeinträchtigtem Sehvermögen im Alltag zu assistieren – und lernt dabei selbst ständig dazu.

Hinter Horus steckt das italienische Startup Eyra, das auf KI-, Gesundheits- und Deep-Leaning-Technologien spezialisiert ist. Das Gerät besteht aus einem Heasdset mit zwei Kameras und einem Walkman-artigen Prozessor, der die Umgebung beobachtet, versteht und sie dem Nutzer beschreibt. Dabei kann er bei Bedarf gedruckte und digitale Texte vorlesen sowie Gesichter, Gegenstände und Hindernisse erkennen.

Auf die Idee für Horus kamen Saverio Murgia und Luca Nardelli, als sie auf dem Weg nach Hause von der Universität einem blinden Mann halfen, zur nächsten Bushaltestelle zu kommen. Beide arbeiten eigentlich an Technologien zu maschinellem Sehen für Roboter. Die Entscheidung, diese auch für Menschen nutzbar zu machen, sei der logische nächste Schritt gewesen, sagen sie.

Der Horus-Assistent besteht aus zwei Teilen: dem Headset mit den visuellen Sensoren und der Akku- und Prozessoreinheit, die etwas größer als ein Smartphone ist und an einem ein Meter langem Kabel in der Tasche getragen werden kann.

Die Kopfhörer nutzen Knochenleittechnologie, mit der Schall über den Schädelknochen am Mittelohr vorbei übertragen wird. So kann der Träger im Gegensatz zu normalen Kopfhörern die Umgebungsgeräusche immer noch perfekt hören und andere Menschen bekommen von der Audio-Beschreibung des Assistenten nichts mit. Die zwei Kameras beobachten die Umgebung und schicken die Daten an den Nvidia-Grafik-Prozessor, der sie mithilfe von Deep-Learning-Algorithmen analysiert.

So erkennt Horus im Navigations-Modus Hindernisse und informiert den Träger mit unterschiedlichen Piepgeräuschen von links oder rechts, ähnlich wie bei einem Parkassistenten im Auto. Richtig beeindruckend wird es aber erst mit der Gesichts- und Objekterkennung. Horus baut mit der Zeit eine Datenbank aus Gesichtern und Gegenständen auf. Wenn er beispielsweise ein neues Gesicht erkennt und der Nutzer ihm einen Namen zuweist, wird Horus es in Zukunft immer wiedererkennen. So entsteht mit der Zeit ein detailliertes Bild der Umgebung – von der Kaffeetasse auf dem Schreibtisch bis zum Freund, der einem zufällig auf der Straße entgegenkommt.

icon_cookie

Um diese Inhalte zu sehen, akzeptieren Sie bitte unsere Cookies.

Cookies verwalten

Die Erkennung soll außerdem in 2D funktionieren, wodurch Horus auch Fotografien und Schilder beschreiben kann und jedes Buch zum Hörbuch macht. Mit einem Druck auf die Knöpfe am Headset und Prozessor lässt sich die Lautstärke regeln und der Assistent aktivieren.

Horus befindet sich in einem fortgeschrittenen Entwicklungsstadium und unterstützt derzeit die Sprachen Italienisch, Englisch und Japanisch. Eine weltweite Testphase, für die man sich aktuell auf einer Warteliste eintragen kann, ist für Anfang 2017 geplant.

+++ Mehr von WIRED regelmäßig ins Postfach? Hier für den Newsletter anmelden +++

GQ Empfiehlt
Kein Display: Die Anti-Smartwatch

Kein Display: Die Anti-Smartwatch

von Benedikt Plass-Fleßenkämper