Direkt zum Inhalt | Direkt zur Navigation

Sections
Sie sind hier: Startseite Die Universität Informationsquellen Presseinformationen 2004 SMS auf die Fingerkuppe

SMS auf die Fingerkuppe

Bonner Neuroinformatiker wollen per Tastsinn kommunizieren

Der Informationsaustausch zwischen Menschen läuft größtenteils über Geräusche und Bilder. Neuroinformatiker der Universität Bonn wollen nun auch den Tastsinn für die Kommunikation nutzen. SMS-Nachrichten ließen sich dann beispielsweise mit den Fingerkuppen lesen, das Autolenkrad könnte in unübersichtlichen Verkehrssituationen warnen oder über den richtigen Weg informieren. Eine spezielle Software entwickelt dazu individuell für jeden Nutzer das am besten passende "Tast-Vokabular". Die Forscher haben ihr Verfahren inzwischen zum Patent angemeldet; auf der Hannover-Messe vom 19. bis 24. April stellen sie ein erstes Funktionsmuster vor (Halle 18 Stand A02).

Es zuckt und kribbelt unter den Fingerkuppen, kleine Stiftchen drücken sich in die Haut und reizen die empfindlichen Tastsensoren. Ganz klar: Das war ein Klammeraffe. Thomas Schieder lacht. "Eigentlich war es eine Spirale. Aber wenn du es so empfindest, ist es halt ein Klammeraffe."

Die Hand von Carsten Wilks liegt in einer Kunststoff-Form. Unter jeder seiner Fingerspitzen sitzt ein wenige Millimeter langes Modul mit acht winzigen Stiften, die sich heben und senken können. Schieder gibt per Palm-PDA, einer Art elektronischem Notizbuch, den Befehl, welche Gruppe von Stiften sich wann heben soll. Unter den Fingern seines Kommilitonen entsteht so ein bestimmtes Orts-Zeit-Muster, wahrnehmbar als eine Acht, eine Welle oder halt - ein Klammeraffe.

Empfindlich und schnell

"Für die meisten Tiere - selbst für manche Affen - spielen Tast- und Riechsinn eine viel größere Rolle als Hören und Sehen", sagt der Bonner Neuroinformatiker Professor Dr. Rolf Eckmiller. "Bei uns ist dieser Kommunikationskanal mehr oder weniger verschüttet. Wir wollen ihn wieder aufbohren." Anwendungsmöglichkeiten für ihre Idee, die sie auf den Namen "SensoTrans" (Signalwandler zur Transformation von Sinneswahrnehmungen) getauft haben, sehen die Entwickler unter anderem in der Kommunikationselektronik, beispielsweise bei zukünftigen Handygenerationen zur rein taktilen SMS-Übertragung. Aber auch in der Medizintechnik bei der Wiedergabe akustischer Signale für Gehörlose oder als Sehhilfe für Blinde ließe sich das Verfahren einsetzen.

Etwa 100 Tastsinneszellen pro Quadratzentimeter sind verantwortlich für unser sprichwörtliches Fingerspitzengefühl. Unser Tastsinn kann noch Vibrationen mit einer Auslenkung von weniger als 0,01 Millimeter wahrnehmen - und das noch in einer Frequenz von bis zu 500 Schwingungen pro Sekunde. "Natürlich wollen wir über den taktilen Kanal keine Buchstaben übertragen", erklärt Professor Eckmiller. "So können wir dem Auge keine Konkurrenz machen. Uns geht es um die schnelle Übermittlung von Sinneinheiten wie ‚ich', ‚du', ‚in einer Stunde', oder ‚nach Bonn', so dass man beispielsweise über ein entsprechend ausgestattetes Handy per SMS den Tast-Satz ‚ich bin in einer Stunde zu Hause' übertragen könnte."

Individuelle Tastsprache

Den Erfindern kommt dabei zu Gute, dass sich vielen Menschen die Bedeutung bestimmter Stiftbewegungen intuitiv erschließt. "Wenn wir auf dem Zeigefinger eine Welle erzeugen, die auf den Benutzer zuläuft, assoziieren das viele automatisch mit dem Begriff ‚ich'; läuft die Welle vom Anwender weg, interpretieren das die meisten als ein ‚du'", erklärt Carsten Wilks, der wie Thomas Schieder in der Arbeitsgruppe von Professor Eckmiller promoviert. Dennoch gibt es auch hier individuelle Unterschiede; manche interpretieren Tastreize ganz anders als erwartet. Für ein künftiges "taktiles Handy" sollen die Anwender aber nicht erst wochenlang ihr "Tast-Vokabular" pauken müssen. "Wir wollen, dass sich das Gerät auf seinen Besitzer einstellt", sagt Wilks: Eine Trainings-Software soll dem Anwender zu jedem gewünschten Begriff verschiedene "Tast-Vokabeln" vorschlagen. Der User kann sich diejenige aussuchen, die seinen Vorstellungen am meisten entgegenkommt. Das Computerprogramm erzeugt dann daraus weitere Variationen und optimiert auf diese Weise die Umsetzung des Begriffs in Stiftbewegungen so lange, bis der Anwender zufrieden ist.

Am ehesten vergleichbar ist diese Vorgehensweise vielleicht mit einem Englischkurs, in dem sich jeder Schüler die für ihn einprägsamsten Übersetzungen selbst aussuchen kann. Als Pendant zum deutschen Wort "bekommen" würde dann wohl niemand das englische "get" wählen, die meisten aber das einprägsame "become", das in der Realität leider "werden" bedeutet.

Ansprechpartner:
Professor Dr. Rolf Eckmiller
Institut für Informatik VI der Universität Bonn
Telefon: 0228/73-4422
E-Mail:
[Email protection active, please enable JavaScript.]
http://www.nero.uni-bonn.de

Bild zu dieser Pressemitteilung

Zum Download der Bilddatei in Originalauflösung bitte auf die Miniaturansicht klicken! Der Abdruck des Bildes ist kostenlos;wir bitten Sie aber, den angegebenen Bildautor zu nennen.

Carsten Wilks, Thomas Schieder und Professor Dr. Rolf Eckmiller präsentieren auf der Hannover Messe ein erstes Funktionsmuster.
Foto: Frank Luerweg / Uni Bonn
Artikelaktionen