Nachrichten, Gerüchte, Meldungen und Berichte aus der IT-Szene

Redaktion: Heinz Schmitz


Spüren was auf dem Touchscreen zu sehen ist

Folie auf Touch-Screen
Das Foto zeigt ein Modell, bei dem deutlich zu sehen ist, wie der Multilayer unter dem Druck des Stiftes nachgibt. Der Motor steuert die Spannung des Multilayers (Quelle: IVC Bonn/ Ernst Kruijff)

Im realen Leben explorieren und interagieren wir vielfach mit verschiedenen festen und flexiblen Eigenschaften: feste und weiche Materialen, Umrisse oder sogenannte Texturen, also uneinheitliche Oberflächen. Wir berühren sie mit den Fingern, interagieren aber auch mittels Werkzeugen wie Stift oder Pinsel mit ihnen. Solche Eigenschaften sind allerdings schwierig zu simulieren auf herkömmlichen interaktiven Systemen wie Handy oder Tablet. Durch den neuartigen Aufbau von FleXurface wird die Stifteingabe auf ein Tablet nun spürbar gemacht, sowohl zweidimensional auf dem Tablet selbst, als auch in 3D, in dem Raum darüber. Somit kann der Nutzer die verschiedenen Texturen und Materialeigenschaften wie etwa durch einen Zeichenstift auf Papier oder den Druck eines Pinsels erleben. Es gibt aber auch weitere Einsatzmöglichkeiten. Ein naheliegendes Beispiel für die Anwendung ist eine Präsentation für eine Gruppe Menschen. Der Redner kann sich auf die Zuhörer und die Leinwand konzentrieren, während er die Bedienknöpfe oder Befehlstasten auf dem Touchscreen seines Tablets fühlen kann, ohne sie unmittelbar in den Blick nehmen zu müssen.

 

Die motorgesteuerte Oberflächenspannung der Folie spielt bei den unterschiedlichen Arten von Simulationen in mehrfacher Hinsicht eine zentrale Rolle. In Abhängigkeit von der Spannung werden zunächst Erhebungen der Abbildungen auf dem Tablet spürbar – aus einer zweidimensionalen Darstellung wird gefühlt eine dreidimensionale Erfahrung. Zudem kann durch Adaption der Oberfläche der Stift leicht bewegt werden, um beispielsweise die Nutzereingabe zu unterstützen oder zu korrigieren. Somit könnten auch Nutzer zukünftiger Versionen des Systems beim Schreiben lernen, auf der Linie zu bleiben.

 

Das Material, aus dem abgebildete Dinge bestehen, kann ebenfalls erfühlt werden, denn die Oberfläche vibriert entsprechend der Schwingungen bei der Übertragung in die Textur. Dies kann in Zusammenhang mit Audio geschehen, um Texturen wie Papier nicht nur zu sehen und zu hören, sondern auch zu spüren. Die bisherigen Ergebnisse gehen über den aktuellen Stand der Wissenschaft hinaus, indem zusätzlich untersucht wurde, wie taktile und audiotaktile Signale mit einer flexiblen Nutzeroberfläche kombiniert werden können. Das Besondere ist, dass das System in beide Richtungen, also sowohl in Eingabe wie in Ausgabe funktioniert. Anwender können, so Kruijff, Tasten fühlen und bedienen, Schieberegler bedienen und genau spüren, was eingestellt wird – und alles auch, ohne hinzuschauen. Denkbar ist das System somit auch als Unterstützung für Blinde oder Sehbehinderte.

 

Diese Entwicklung ist das Ergebnis einer mehrjährigen Forschungsarbeit von Dr. Ernst Kruijff vom Institute of Visual Computing (IVC) der Hochschule Bonn- Rhein-Sieg (H-BRS). Er wird das „Multilayer Haptic Feedback“-System – genannt FleXurface – zusammen mit seinem Team vom IVC sowie Kollegen der Brunel University London und der Simon Fraser University in Vancouver bei der ACM Conference on Human Factors in Computing Systems (CHI) vorstellen. Diese Konferenz für das Thema Mensch-Maschine-Interaktion findet vom 4. bis 9. Mai 2019 in Glasgow statt.

 

Originalveröffetlichung:

Challenges and Opportunities in Online Science Communication; 2019 CHI Conference on Human Factors in Computing Systems Proceedings. ACM, New York, NY, USA

https://doi.org/10.1145/3290605.3300383

Zurück