Mobile Audio Internet (MAI)

Forschungsprojekt

Geplant war der Bau eines Audioguides. Technisch sollte dieser auf einem kleinstmöglichen Android-Gerät basieren, der in einem Kopfhörer integriert wird. Der Audioguide sollte auf Bewegungen (Körpergesten) des Nutzers reagieren. Kopfschütteln, Nicken etc. sollten Gesten sein, mit denen das Audio-Angebot verändert werden kann.

In späteren Ausbaustufen sollte das Konzept verallgemeinert werden. Allgemein sollten Körpergesten erfunden und von dem Android-Gerät erkannt werden, die dann zur Navigation von Informationsangeboten genutzt werden können. In dieser allgemeinen Form hätte man dann ein Gerät gebaut, dass die Navigation im mobilen Internet durch Körpergesten erlaubt. Im Gegensatz zu Smartphones bekommen die Nutzer die Hände und vor allem die Augen frei. Damit nimmt man - hoffentlich - die Umgebung wieder besser war. Automatisch nutzt dieses Konzept natürlich z.B: sehbehinderten Menschen.

Von der allgemeinen Ausbaustufe leitet sich auch der Projektname Mobile Audio Internet (MAI) ab.

Projektlaufzeit

02.09.2013 - 31.12.2013

Projektleitung

Mittelgeber

Serotonin