Toolbox Interactiondesign


BA THESIS

B.A. Thesis Blind Lesen => Christin Marczinzik

Christin Marczinzik, 01.04.2013 | Blind Lesen bei Prof. Steffi Hußlein & Prof. Bernhard Schmid-Wohlleber

Die Welt, in der wir leben, ist schon immer eine Welt des Sehens. Alles, was uns umgibt, nimmt der normal sehende Mensch zu 80% mit seinen Augen wahr. Damit ist dieser Sinn der meist genutzte und bedeutenste von allen. Für Menschen, die schlechter oder gar nicht sehen, sind die sich daraus ergebenden Konsequenzen verheerend.
Sie sind eingeschränkt in der Kommunikation, im Zugang zur Information und in ihrer Mobilität. Kaum ein Lebensbereich ist nicht betroffen, in dem andere Sinne versuchen müssen das fehlende oder geschwächte Sehvermögen zu unterstützen und zu ersetzen.

In Deutschland leben nach Angaben des Deutschen Blinden- und Sehbehindertenverbands e.V. (DBSV) etwa 155.000 Blinde und rund 500.000 Menschen mit einer Sehbehinderung. Da sie offiziel nicht gezählt werden, beruhen die Zahlen auf der Anzahl von offiziellen Blindengeldemfpängern. Nur jeder fünfte ist von Geburt an blind oder erblindete im Kindes- oder Jugendalter. Die meisten Sehschwächen und Erblindungen treten im fortgeschrittenen Lebensalter ein. Da Frauen in Deutschland eine höhere Lebenserwartung haben, beträgt ihr Anteil unter den Blinden ca. 80%.

Jeder blinde oder im Sehen eingeschränkte Mensch ist im Alltag auf Hilfsmittel angewiesen. Dabei kommt dem Design eine sehr wichtige Rolle zu. Es muss besondere ergonomische Anforderungen erfüllen und in seinem Bedienkonzept, für eine Intuitive und nutzerfreundliche von den Augen losgelöste Handhabung, klar und verständlich sein. In vielen Bereichen erleichtert es kleine Dingen im Alltag sowie den Zugang zu Medien und Orten. Ein wichtiger Bestandteil unseres Lebens, der in unserem Sozialverhalten fest verankert ist, zeigt jedoch noch große Defizite auf: die zwischenmenschliche Kommunikation, bezogen auf die Kontaktaufnahme und die Erkennung nonverbaler Sprache.

Blind Lesen | Konzept

Das System besteht drei Komponenten. Die erste ist eine App. Sie wird kostenlos vom Nutzer installiert. In ihr findet er all seine Kontakte und kann an ausgewählte eine Einladung verschicken oder erkennen, wer die App bereits nutzt. Die Freunde können die Einladung annehmen oder ablehnen. Nehmen sie an, wird ihnen die kostenlose App ebenfalls installiert. In ihr legen sie ein Profilbild an und können verschiedene Einstellungen zu ihrer Sichtbarkeit über GPS oder des Profilbildes vornehmen. Verfügen Nutzer und/oder Freunde nicht über ein Smartphone kann dieser Dienst vom Computer über das Internet genutzt werden.

Die zweite Komponente ist die Kamera, die auf Brusthöhe an der Kleidung individuell befestigt wird. Sie registriert Personen in einem Umkreis von maximal 12 Metern. Die Gesichter gleicht sie per Bluetooth mit den Profilbildern der Kontakte in der App ab und sendet bei Erkennung ein Signal an das Gerät am Unterarm. Aufgrund einer speziellen biometrischen Software ist sie in der Lage negative und poitive Mimik wahrzunehmen. Die Funktion zur Übermittlung der Mimik sollte sich nach belieben aktivieren un deaktivieren lassen, falls die taktile Ausgabe in einigen Situationen als unangebracht oder störend empfunden wird. Diese Einstellung kann in der App vorgenomen werden. Über einen integrierten Lautsprecher werden Namen der Personen ausgegeben. Der Nutzer kann die Kamera direkt an ihrem Gehäuse aktivieren oder deaktivieren.

Das Gerät, das sich am Handgelenk und Unterarm der blindenstockführenden Hand oder am Arm der eigenen Wahl befindet, gibt durch Vibrationsmotoren das Signal, dass ein Bekannter ausgemacht wurde. Die Informaton erhält es von der Kamera und von GPS-Daten der Freunde, die von der App in einem Radius von 500m erkannt werden. Die Vibrationen zum Aufmerksammachen müssen sich je nach der Erkennungsart von einander unterscheiden, damit der Nutzer weiß, ob es von nun an schnell gehen muss, da Peronen in einem Radius von nur 12m rasch wieder verschwinden können, oder ob er mehr Zeit hat. Die Vibration für die 12 Metergrenze verläuft ringsum den Unterarm am nächsten Punkt hin zum eigenen Körper. Die Vibration ist, ebenso wie die andere Person, nah. Ist der Bekannte weiter entfernt, wird die Vibration so weit wie möglich vom Körper weg am Handgelenk ausgegeben.

Bei sehr kurzer Distanz beginnt das System sofort mit der Ausgabe des Freundes, der am nähsten ist. Die Kamera gibt akustisch den Namen aus. Gleichzeitig übernimmt das Gerät am Arm die Ausgabe der erkannten Mimik. Anschließend folgt die Navigation über gerichtete Vibrationen.

Bei einer größeren Entfernung besteht für den Nutzer mehr Zeit, um selbsständig herauszufinden, wen das System gefunden hat und wo er sich befindet. Dafür besitzt das Gerät am Arm ein taktiles Display. Auf ihm kann er die Positionen der georteten Personen erkennen. Durch Berühren erfährt er Namen und durch Drücken wählt er eine Person aus, zu der nun navigiert wird. Die Navigation erfolgt genau wie bei einer Entfernung von 12 Metren, nur kann hier zusätzlich das Display genutzt werden, das ebenfalls die Richtung darstellt.

Blind Lesen | Recherche

Am Beginn der Bachelorarbeit stand eine umfangreiche Recherche im Hinblick auf Techniken, die Blinden und Sehbehinderten den Alltag erleichtern. Das Smartphone mit seiner Sprachausgabe, Sprachsteuerung und vielen hilfreichen Apps ist neben Bildschirmlesegeräten und Braillezeilen für den PC ganz vorn mit dabei. Weitere Punkte, die untersucht wurden, waren verschiedene Sensoren, wie sie in Smartphones oder Spielekonsolen zum Einsatz kommen, die Sinne, insbesondere der Tastsinn, Gesten zur Bedienung von Touchmonitoren, taktile Displays und die Biometrie.

Blind Lesen | Entwurf // Papierprototypen // Vormodelle

Die Kamera lässt sich so an- und ausschalten, dass ihr Zustand für andere sichtbar ist.
Das Armband besitzt auf seiner Innenseite das taktile Display. Dort kann es schnell mit der anderen Hand erreicht werden und ist so nur für den Nutzer zugänglich.
Das taktile Display selbst ist radial. Ringe unterschiedlicher Tiefen stehen für die Entfernung in 100 Meter Schritten. Auf ihnen sind durch erhabene Punkte die Freunde abzulesen.
Alle Komponenten, die App, die Kamera, das Armband und das taktile Display, sind formal durch das Thema Kreis miteinander verbunden.

Blind Lesen | Applikation

Die Applikation meet:you ist klar und verständlich aufgebaut. In wenigen Schritten gelangt der Nutzer zu den gewünschten Menüpunkten und kann eigene Einstellungen vornehmen. Grundsätzlich lässt sich die App komplett aktivieren und deaktivieren. Im aktivierten Zustand stehen dem Nutzer drei Menüpunkte zur Verfügung: Kontakte, Reichweite und Einstellungen.
Das Design von meet:you ist auf die Bedürfnisse Blinder und Sehbehinderter abgestimmt. Dafür werden starke Kontraste, klare Schriften und große Symbole eingesetzt. Hauptfarben sind schwarz und weiß/hellgrau. Sie unterscheiden sich klar voneinander und gliedern das Interface in übersichtliche Bereiche. Als Highlightfarbe dient ein kräftiges Orange. Die Gestaltung ist flächig mit nur wenigen Schattierungen, um die Klarheit zu behalten und die Aufmerksamkeit nicht vom Wesentlichen abzulenken.
Als grundlegendes Element dient ein in Ringe unterteilter Kreis, der das taktile Display des Armbands symbolisiert. Er findet sich im App-Icon, im Logo und in der App zur Einstellung der Reichweite des GPS-Signals.

Blind Lesen | Armband

Blind Lesen | Kamera

Blind Lesen | Fazit // Ausblick

Das Konzept soll Blinden und in ihren Sehkräften eingeschränkten Personen ermöglichen, auf der Straße selbstständig Kontakt zu bekannten Personen aufzunehmen.

Vorteile
Dafür müssen Personen zuerst identifiziert und lokalisiert werden. Anschließend wird der Nutzer über taktile Ausgaben zu ihnen navigiert und kann ab einer kurzen Entfernung ihre Mimik, die nomalerweise für Blinde komplett unzugänglich ist, spüren. Er kann nun gezielt auf Personen zugehen und in Abhängigkeit ihrer Mimik seine eigene Reaktion bestimmen, was zu einer größeren Selbstständigkeit in der Kommunikation beiträgt.

Ausgabe
Die Ausgaben von Vibrationen, Druck und eines taktilen Displays machen das System für den Tastsinn erfahrbar, und zu einem neuen Erlebnis. Sie öffnen neue Arten der Nutzung und Bedienung, die losgelöst von den Augen funktionieren.

Applikation
Die App meet:you dient für den Nutzer und seine Freunde als eine Art soziales Netzwerk, über das sich geaddete Freunde unterwegs finden können. In ihr lassen sich Sicherheits- und Privatsphäreeinstellungen vornehmen. Sie ist aus datenschutzrechtlichen Gründen notwendig und ermöglicht individuelle Bestimmung über persönlichen Daten, wie die Freigabe von GPS und dem eigenen Profilbild. Um das Konzept nicht nur auf Smartphonenutzer zu beschränken, ist die zusätzliche Nutzung einer Software über Computer und Internet denkbar.

Ausblick
Eine Verbesserung des besteheden Konzepts ist die Navigation innerhalb von Gebäuden und auf verschiedenen Etagen. Um das zu ermöglichen, müssten Gebäude in ihrem Inneren kartiert werden. Bisher ist dies nur bei sehr wenigen öffentlichen Gebäuden der Fall, weshalb die Funktion noch nicht im Konzept enthalten ist.
Das Konzept lässt sich durch die Verwendung einer Kamera und eines Armbands mit taktiler Ausgabe auf andere Lebensbereiche erweitern. Beispielsweise ließen sich Hindernisse erkennen und ausgeben. Routen zu bestimmten Adressen könnten anviesiert und auch Gesten sichbar gemacht werden. Es bietet großes Potenzial Blinden und Sehbehinderten ihren Alltag in vielen Bereichen weiter zu erleichtern und zu verbessern.

17.06.2013 | Steffi Husslein |