Menu

Im Dialog mit der Cloud

"Smartphones und Apps sind zu kompliziert für ältere Menschen - keep it simple!" war die Message von Ruth Schindler, Geschäftsführerin Pro Senectute Region Bern an uns, die Teilnehmer des Hackathons "Hack for Ageing Well".

Sie werden jetzt einwenden: "Und was bitte schön ist kompliziert an einem iPhone?". Nun… alles! Stellen Sie sich vor, wir Menschen könnten untereinander nur über Zeichnungen, Symbole und kurze Texte auf zweidimensionalen Flächen kommunizieren. Ohne gesprochene Sprache, ohne Körpersprache und ohne Gesten hätte sich der Mensch wohl nie zu dem entwickelt, was er heute ist und wäre vielleicht bereits seit vielen Tausend Jahren ausgestorben.

Und wie kommunizieren wir mit der Digitalen Welt bzw. wie funktioniert ein Smartphone? Genau: Über Zeichnungen, Symbole und kurze Texte (Apps) auf zweidimensionalen Flächen (Smartphones)! Mit den Fortschritten in Machine Learning und Künstlicher Intelligenz können wir Menschen nun mehr und mehr über gesprochene Sprache, Körpersprache und Gesten mit Computern Interagieren. War es in der Vergangenheit der Mensch, der sich dem Computer angepasst hat, ist es in Zukunft der Computer der sich dem Menschen annähert.

Angefangen hat alles mit Lochkarten und Magnetbändern. In den 1960er Jahren kamen CLIs (Command Line Interfaces) dazu und in den 1980er Jahren die ersten GUIs (Graphical User Interface). Die GUIs haben sich dann in den 1990er Jahren in der Version "Maus" und ab 2007 in der Version "Touchscreen" definitiv etabliert. Viele setzen heute UI (User Interface) mit GUI gleich. Wir haben uns so an unsere Notebooks, Tablets, Smartphones und Apps gewöhnt, dass wir nicht mehr realisieren, wie unnatürlich deren Bedienung für uns Menschen eigentlich ist. Zwar hat sich die Interaktion mit Computern mit jeder UI-Generation vereinfacht, es gibt aber noch immer viel Potential. Das fällt besonders auf, wenn ältere Menschen versuchen den Anschluss an die mehr und mehr digitale Welt nicht zu verlieren.

Zurück zum "Hack for Ageing Well" Event in St. Gallen: Unsere Gruppe hat sich am Hackathon zum Ziel gesetzt einfache, intuitive Möglichkeiten zu finden, um in Notfällen Hilfe zu bekommen. Und was ist die natürlichste Reaktion in einem Notfall? Um Hilfe rufen, winken oder klopfen! Entsprechend hat sich unsere Gruppe aufgeteilt. Die einen haben einen Prototypen zum Erkennen von Klopfen mittels Smartwatch entwickelt, während wir anderen an einem Prototypen für einen Notfalldialog mit Amazon Alexa arbeiteten. Dabei kann der Benutzer mit einem Sprach-Kommando Hilfe anfordern. Er/Sie braucht also kein spezielles Gerät zu tragen und es sind keine Installationen in der Wohnung notwendig. Es reicht ein Amazon Echo Dot (ca. 60€) oder Amazon Echo (ca. 170€) in die Wohnung zu stellen. Der am Hackathon entwickelte App Prototype (bzw. Skill wie Apps bei der Alexa Plattform heissen), kann über Sprache einen Notfallalarm auslösen. Daneben ist es aber auch möglich in weniger dringenden Fällen Hilfe von einer Kontaktperson anzufragen.

Sehen Sie hier eine Demo der Ask4Help Skill:

Amazon Alexa ist ein sprachbasierter Dienst, welcher eine Interaktion mit der digitalen Welt über gesprochene Sprache ermöglicht. Dabei kann Alexa nicht nur "Sprachbefehle" verarbeiten, sondern ist in der Lage "richtige" Dialoge zu führen. Mit dem "Google Assistant" und dem Gerät "Google Home" wird Google bald ein vergleichbares System anbieten, Apple hat ein ähnliches System angekündigt und Microsoft bietet mit Cortana ebenfalls eine Digitale Assistentin an. Diese Plattformen habe eines gemeinsam: Sie bieten ein für uns Menschen sehr vertrautes UI, nämlich natürliche Sprache.

Amazon Werbespot zu Alexa:

50 weitere Skills von Alexa:

Ich freue mich sehr über Feedback zu diesem Thema.

Paul Affentranger
Von Paul Affentranger am 7 Okt 2016
vorheriger Beitrag nächster Beitrag