Montag, 2. März 2009

UX und IFE. Interaktion mit Monitor und Handset. Teil 3

Auch wenn die Userexperience durch viele verschiedene Faktoren beeinflusst wird: Kern des IFE bleibt die Interaktion mit der eigentlichen Software. Die Schnittstellen zum Benutzer sind:

  • Monitor (bei Touchscreen-Systemen)
  • Monitor und Handset
Beide Interaktionsformen haben Vor- und Nachteile. Die Interaktion bei einem Touchscreen-System ist sehr direkt, viele Konsistenzprobleme bei der Usability, stellen sich hier nicht. IFE benutzen meist analog-restitive Monitore, die, anders als die berührungsempfindlichen kapazitiven Monitore wie z.B. beim iPhone, auf Druck reagieren. Das führt bei Systemen, die in den Rückenlehnen angebracht sind, oft zu Beschwerden der Passagiere. Viele Airlines setzen deshalb konsequent auf Monitor-Handset-Systeme.

Die Bedienung über ein Handset stellt hohe Anforderungen an die Konsistenz der Benutzerführung. Oft müssen die Systeme im Dunklen bedient werden. Benutzer finden sich deshalb am Besten mit schon bekannten Bedienmethaphern zurecht.

Die Bedienung des IFE zerfällt in drei Teile, die unterschiedliche Anforderungen stellen:
  • Die Navigation zu dem gewünschten Medium (meist hierarchisch)
  • Die Einstellungen durch den User (Sprachwahl, Helligkeit etc.)
  • Die Bedienung des Mediums (einen Film, ein Spiel etc.)
Jeder dieser drei Teile muss nach einer konsistenten Bedienmetapher implementiert werden. Sie sollten sich an bekannten Bedienmetaphern anderer "Consumer Products" (iPod, Playstation ...) orientieren. wobei für die Bedienung der Medien unterschiedliche Methaphern nötig sind. Start, Pause, Stop für einen Film oder Musik stellen andere Anforderungen als die komplexe Bedienung von Spielen.

Übergeordnete Funktionen wie das Ein- und Ausschalten und Helligkeits- sowie Lautstärkeeinstellungen sollten gut sichtbar sein. Hardware Schnittstellen, wie Köpfe direkt am Monitor oder an zentraler Stelle des Handsets, bieten sich hier an.

Keine Kommentare: