Avis juridique important
   
Kontakt   |   Suche   
RDT info logoMagazine de la recherche européddee Nr 51 - Dezember 2006   
Top
 HOME
 INHALT
 EDITORIAL
 Der Mensch als Maschine: Über die neuen Wege der Kommunikation
 e-Inclusion, Pro und Kontra
 Biotechnologien: Steigender Beliebtheitsgrad
 "Ein Wissenschaftler, der Tacheles redet, kann Schaden anrichten"
 Diabetes + Obesität = Diabesität
 Die Geschichte des Hefegenoms
 Rebell aus vielen Gründen
 Auf den Spuren der sechziger Jahre
 Nobelpreisträger der Zukunft
 WISSENSCHAFT VERBREITEN
 KURZINFOS
 PUBLIKATIONEN
 AGENDA

PDF herunterladen de en fr


INFORMATIONSGESELLSCHAFT
Title  Der Mensch als Maschine: über die neuen Wege der Kommunikation

Die Informatik sucht nach neuen Wegen der Kommunikation mit dem Menschen, indem sie alle seine polysensorischen Möglichkeiten nutzt. Der Rechner reagiert auf immer subtilere Tastanweisungen, interpretiert die von uns ausgesprochenen Worte und ist in der Lage darauf zu antworten. Er entschlüsselt unsere Augenbewegungen. Informatiker betreten Wege, die man aus Science-Fiction-Filmen kennt: Maschinen sind imstande, "Gedanken zu lesen" oder breiten ihre Fühler in unserer Kleidung aus, um unsere Gesundheit zu überwachen. Diese so genannten Schnittstellen- Technologien müssen in erster Linie die Bedürfnisse der schwächsten Bürger, der älteren oder behinderten Menschen, befriedigen. Darüber hinaus könnten diese Innovationen alle Formen der Kommunikation zwischen Mensch und Maschine radikal verändern.

Experiment im Rahmen des Forschungsprojekts MAIA (Mental augmentation through determination of intended action). Durch etwa 30 Enzephalo-graphie-Elektroden an den Rechner angeschlossen, teilt der Bediener dem Rechner die Bewegung seiner rechten oder linken Hand einzig durch die geistige Konzentration mit. Das Forschungsprojekt zielt insbesondere auf Anwendungen wie das Lenken eines Rollstuhls in einer geschlossenen Umgebung und die Steuerung von automatisierten Armen, um Handgriffe aus der Distanz zu verrichten.
Wie kann ein Mensch mit einem motorischen Problem die herkömmliche Tastatur oder Maus bedienen, oder ein anderer mit eingeschränktem Sehvermögen am Bildschirm arbeiten? Die Welt der Informatik bleibt schwierig für Hunderte Millionen von Individuen weltweit, die behindert sind oder unter einer kulturellen Ungleichzeitigkeit bzw. einem "cultural lag" leiden, der auf das Alter oder die sozialen Verhältnisse zurückzuführen ist. Ein breiter Konsens besteht heute darüber, dass die digitale Kluft ein ernstes demokratisches Defizit der Informationsgesellschaft darstellt. Auf technologischer Ebene ist eine der aufgeworfenen Fragen folglich diejenige der Diversifizierung und der Innovation in den Kommunikationsschnittstellen mit dem Rechner.

Der Sehsinn und das Gehör, die Stimme und der Tastsinn
In der Informatik bilden die Interface-Technologien zwischen dem Nutzer und der Maschine eine spezifische Software-Domäne, die auf den Namen "API-Schicht" (Application Programming Interface) getauft wurde, und welche die innere Architektur des Rechners ausdrücklich auf eine autonome Weise ergänzt. Ein sehr altes Beispiel: die Bearbeitung eines Textes ist unabhängig von der Tastatur, dank derer die Schriftzeichen getippt wurden. Zwischen beiden befindet sich die API, die den Auftrag hat, die über die eine oder die andere Taste übermittelte Information zu empfangen und sie in "universelle" Befehle zu konvertieren, die für die Textbearbeitung verwendbar sind, unabhängig von der "linguistischen Schreibweise" des Textes.

Zurzeit sind die beiden Meister der Schnittstelle die Bildschirmanzeige - die auf dem Sehsinn basiert - und die Maus, dieses multifunktionale Befehlsinstrument taktiler Art. Geboren in den 60iger Jahren, populärer geworden in den 80igern, hat diese außergewöhnliche Erfindung ein fundamental neues Werkzeug gegenüber dem jahrhundertealten Gebrauch der Schreibmaschinentastatur eingeführt. Indessen vermittelt die Maus grundlegend in dem Prozess, der die "Vollgrafik" begünstigt hat. Kann man auch ohne auskommen?

Eine Innovation, die seit langer Zeit erforscht wird (IBM arbeitete bereits in den 70iger Jahren daran), ist die Verwendung der Stimme und des Gehörs. Die Software für Erkennung und Synthese wird in den zahlreichen Anwendungen zu klingender Münze. Eine nächste Etappe wird die Anpassung an die Textverarbeitung sein, sei es für das Diktat sei es für das Gehör: die Algorithmen, die in der Lage sind, aus einem Text einen Fluss von Phonemen zu extrahieren und diese an einen Stimmen - synthesizer zu übertragen, um diese hörbar wiederzugeben, werden bald zur Standardausrüstung eines PCs gehören.

Eine weitere vorhersehbare Entwicklung steht in Verbindung mit dem Tastsinn - die Spezialisten haben sie taktiles Interface getauft (1). So entwickeln die Partner des Forschungsprojekts GRAB (siehe eingerahmter Text) Werkzeuge der automatischen Simulierung, um mittels der Fingerspitzen die Konturen eines dreidimensionalen Bildes abzutasten. Eine solche Anwendung geht über die einfache Adaption der Standardwerkzeuge der Informatik für Sehbehinderte hinaus, indem sie vorschlägt, die digitale Information durch diesen gänzlich neuen Kanal der taktilen Wahrnehmung zu erfassen. Werden sie die Architekten benutzen, um Layouts und Modelle "von Hand" zu erstellen? Möchten die Tele- Chirurgen die Organe eines Patienten "ertasten" können, an denen sie aus einer Entfernung von Tausenden von Kilometern vermittels eines Roboters operieren? Diese Technologien eröffnen neue Möglichkeiten in zahlreichen Bereichen, wobei sie weit über die Welt der behinderten Personen hinausgehen.
Bei den gelähmten Personen sind es die Augenbewegungen, die dem Rechner Befehle erteilen. Hierbei verstärkt ein Infrarotstrahl den Kontrast zwischen der Hornhaut, der Iris und der Pupille. Ein Software Programm errechnet ihre Position, um festzustellen, worauf der Bediener seinen Blick richtet. An die Kontrolle der Augen angepasste Schnittstellen, die durch das europäische Forschungsprojekt COGAIN entwickelt wurden, erlauben es, bis zu 25 Worte pro Minute aufzuschreiben, was ein wenig unter der durchschnittlichen Trefferanzahl mittels einer Tastatur liegt.
© Cogain/Paivi Marajanta


Vom Blick zum Gedanken
Aber die Perspektiven der Innovation gehen noch sehr viel weiter - nicht ohne ein gewisses Entsetzen vor der Macht der Durchdringung auszulösen, welche an die Maschine delegiert wird - wenn sich die Schnittstelle in die Interpretation des Blicks oder sogar des Denkens einschaltet. So widmet sich das europäische Forschungsprojekt COGAIN (siehe Textbox) zig Millionen Menschen auf der Welt, die an Lähmungen leiden, indem es sich mit der durch Augenbewegung gesteuerten Kommunikation zwischen Mensch und Maschine beschäftigt. Päivi Majaranta von der Universität von Tampere (FI), Koordinator des Projekts, ist der Ansicht, dass diese Technologie "auch einen Absatz für andere Anwendungen finden kann, indem Rechner lernen, auf die Benutzer zu achten, z.B. im Bereich der Spiele oder der Videokonferenz." Big Brother is watching you?

Für die gelähmten Personen wird es allerdings zuletzt darum gehen können, ganz auf Bewegung zu verzichten. Gehört es in die Sciencefiction, sich vorzustellen, dass man einen Rechner durch das Denken steuert? Die "Vermählung" von Kybernetik und Neurowissenschaft macht es möglich. Einige Wissenschaftler experimentieren mit so genannten intrusiven Techniken, durch die elektronische, in den menschlichen Körper implantierte Chips direkt mit den Neuronen verbunden sein können. So kam das Team von John Donoghue (Brown University - USA) dazu, in der Zeitschrift Nature den Fall des Matthew Naggle publik zu machen, eines jungen, 26-jährigen Querschnittgelähmten, dem eine "Neuro- Prothese" ins Gehirn implantiert worden ist, die seine willkürlichen Bewegungen steuert. Diese Prothese erfasst die Aktivität der Neuronen und übermittelt sie an Rechner, welche diesen Datenfluss in die Cursorsteuerung übersetzen.

Andere Forscher arbeiten an so genannten weichen Methoden, wozu es keiner chirurgischen Eingriffe bedarf. Eine mit Elektroden ausgestattete Haube umhüllt dabei den Kopf des Bedieners, um die Elektrowellen aufzufangen, die vom oberen Teil des Gehirns, der Großhirnrinde (Kortex) ausgesandt werden. Die neuronale Information, die zum Beispiel über ein Elektroenzephalogramm an ein Softwareprogramm übermittelt wird, wird identifiziert und so klassifiziert, dass sie einem einfachen und vorbestimmten Befehl entspricht (in diesem Fall dem Befehl, den Cursor nach rechts oder links zu bewegen).

Die Herausforderung der Modellierbarkeit des Gehirns
Der Rechner soll also einen Befehl mit einem Gedankenschema assoziieren. Die erste Herausforderung ist technologischer Natur: die Maschine muss lernen, vom Gehirn ausgehende Signale zu erkennen und zu identifizieren. Die andere Schwierigkeit ist menschlicher Art. Wenn auch die Neurowissenschaften auf der ganzen Welt bestimmte Gedanken prozesse mit bestimmten aktiven Gehirnarealen assoziieren, so ist hingegen der Mensch unfähig, beim Gedanken an dieselbe Sache auf die gleiche Art dieselben Neuronen zu aktivieren. Diese Modellierbarkeit der Gehirnmechanismen zeigt sich darin, dass das Elektroenzephalogramm der gleichen Versuchsperson jedes Mal dann, wenn sie sich vorstellt, ihre rechte Hand zu bewegen, ein anderes Bild gibt. Für José del R. Millán, Koordinator des europäischen Projekts MAIA (Mental Augmentation through Determination of Intented Action), "haben die Schnittstellen zwischen Gehirn und Rechner gewiss das Potential, einen neuen Kommunikationskanal mit den Rechnern anzubieten. Jedoch sind sie außerhalb des Labors und der Bedienung durch Experten heutzutage nicht einsetzbar". Nach ihm sind die hauptsächlichen Wege, die zu erforschen sind, diejenigen der Interaktion und der Adaption der beiden Akteure des Systems: des Menschen und der Maschine. Letztere muss kontinuierlich lernen, sich den wechselnden zerebralen Schemata des Bedieners anzupassen.

Unterstützte Tele-Autonomie
Aber die Schnittstelle bringt nicht alles zustande. Die Autonomie älterer und behinderter Menschen ist auch Gegenstand anderer Forschungsansätze, besonders im Hinblick auf die telekommunikative Seite bestimmter Projekte. So wird Galileo, das in der Zukunft zum europäischen "GPS" führen soll, ein Satellitenortungssystem anbieten, das in der Lage ist, eine Position auf den Meter genau zu orten. Dank dieser Präzision und eines detaillierten geographischen Informationssystems wird ein jeder exakt seine Position ausmachen und den besten Weg errechnen können, um zur Bushaltestelle oder zur nächsten Fußgängerpassage zu gelangen. Für sehbehinderte Menschen wird es folglich genügen, eine vokale Schnittstelle zu schaffen, um ihnen eine vollständige "sprechende Karte" des Ortes, an dem sie sich befinden, zu liefern.

Eine weitere große Herausforderung der nächsten Jahrzehnte ist die häusliche Betreuung der älteren Menschen. Forschungsprojekte wie Healthservice24, Chronic oder MyHeart (siehe Textbox links) schlagen Analyse geräte von Lebenssignalen vor, die zu Hause verwendet werden und ihre Befunde mittels des UMTS (Universal Mobile Telecommunications System) oder GPRS (General Packet Radio System Protokolle für die Datenübertragung per Mobiltelefon) direkt an medizinische Informationsdienste übermitteln. Diese Informationen werden in den Pflegezentren sofort geprüft und im Notfall können Hilfsmaßnahmen getroffen werden. Die Ärzte können dann mittels eines Videokonferenzsystems, über das Internet oder per Digitalfernsehen mit dem Patienten in Kontakt treten. Es ist also eine komplette Infrastruktur, die da erforscht wird: Überwachung der Patienten zuhause, Fernberatung, Speicherung von medizinischen Daten über die Person, so dass der Arzt über seinen Patienten vollständig informiert sein kann.

(1) Das entsprechende frz. Wort haptique verweist auf das griechische haptein (berühren). Der Begriff taktil bzw. haptique weist auf die Wissenschaft des Tastgefühls hin, in Entsprechung zur Akustik oder Optik.

Version imprimable
  MEHR EINZELHEITEN  
  Bilder zum Anfassen

Das sechs Teams aus vier Ländern (Spanien, Großbritannien, Irland, Italien) vereinigende Forschungsprojekt GRAB (Computer Graphics Access for Blind people through a haptic virtual environment) möchte den blinden Menschen einen...
 
  Befehle per Blick

Sarah ist an ihren Rollstuhl gefesselt. Sie kann weder Arme noch Beine bewegen. Trotz ihrer Behinderung arbeitet...
 
  MyHeart: prévdeir les maladies cardio-vasculaires

Infarkt, Arrhythmie, Herzattacken. Zirka 20% der Europäer leiden an kardiovaskulären Krankheiten und 45% davon...
 

  MEHR WISSEN  
 
  • Grab
  • Maia
  • Cogain
  • MyHeart
  • Chronic
  •  

       
      Top
      Bilder zum Anfassen

    Das sechs Teams aus vier Ländern (Spanien, Großbritannien,
    Irland, Italien) vereinigende Forschungsprojekt GRAB (Computer Graphics Access for Blind people through a haptic virtual environment) möchte den blinden Menschen einen Zugang zur Graphikwelt des Computers ermöglichen. Der Nutzer steckt seine beiden Zeigefingern in zwei „Fingerhüte“, die an zwei auf Spindeln montierten Armen angebracht sind und den Widerstand simulieren, den ein dreidimensionales Bild bietet, wenn es von den Fingerspitzen abgetastet wird.
    Die Ausrüstung besteht aus einem Paar Arme – der taktilen Schnittstelle – einer Stimm - erkennung und einem Sprachsynthesizer, welche die Kommunikation zwischen dem Menschen und der Maschine ermöglichen, sowie einem Software-Programm zur Modellierung der taktilen Geometrie, welches die Schnittstelle steuert. Es handelt sich um ein generisches Programm, das heißt es kann an verschiedene taktile Schnittstellen angepasst werden und alle, nach den Richtnormen für den Datenaustausch zwischen CAD-Systemen (Computer Aided Design) kodierten dreidimensionalen Bildern benutzen. Blinde Menschen haben diese Innovation testen können, wobei sie insbesondere mit einer „Schatzsuche“ in einem mit Fallen bestückten Gebäude experimentiert und die Struktur einer Stadt auf der Basis einer rekonstruierten Karte entdeckt haben.

      Befehle per Blick

    Etude des mouvements oculaires
    © Cogain/Paivi Marajanta
    Sarah ist an ihren Rollstuhl gefesselt. Sie kann weder Arme noch Beine bewegen. Trotz ihrer Behinderung arbeitet sie auf ihrem Rechner, um Webseiten zu konzipieren. Ihre Augen sind auf den Bildschirm fixiert, während ein Gerät zur Kontrolle der Augenbewegungen selbst geringste Bewegungen erfasst. Kameras und Infrarotstrahlenbündel identifizieren in jedem Augenblick denjenigen Bereich des Bildschirms, den Sarah gerade betrachtet. Mit den Augen lässt Sie den Zeiger über den Bildschirm gleiten, wodurch sie Menüs und Tasten des Programms auf einen halben Zentimeter genau betätigen kann. Es genügt, ihre Augen zusammenzukneifen oder denselben Punkt für einige Sekunden zu fixieren, um einen Klick auszulösen. Um einen Text zu tippen, hat COGAIN auch Schnittstellen entwickelt, die speziell an die Augenkontrolle angepasst sind und welche die Buchstabenfolgen, die durch Farbzonen unterschieden sind, auf dem Bildschirm vorbeiziehen lassen. Der Bediener bewegt kontinuierlich den Cursor auf dem Bildschirm von einer Farbzone zur andern, wobei er den ihr assoziierten Buchstaben auswählt. Die ganze List besteht in der räumlichen Organisation der Farbzonen, deren Juxtaposition so ausgetüftelt wurde, dass sie eine intuitive Vervollständigung der Wörter erlauben. Eine Leerstelle für den Buchstaben V grenzt z.B. an eine andere für den Diphthong OU an, die ihrerseits wieder vor einer solchen für den Buchstaben S liegt. So kann vermittels der Augenbewegung das Wort VOUS (IHR) geschrieben werden. Ein geübter Nutzer kann bis zu 25 Wörter pro Minute schreiben – ein bisschen weniger als die Hälfte der Trefferanzahl, die ein normaler Bediener auf der Tastatur erzielt.

      MyHeart: prévenir les maladies cardio-vasculaires

    Infarkt, Arrhythmie, Herzattacken… Zirka 20% der Europäer leiden an kardiovaskulären Krankheiten und 45% davon sterben daran. Für MyHeart, einem Konsortium aus 40 europäischen Partnern, das von Philips geleitet wird, können diese Zahlen durch eine bessere Vorbeugung und personalisierte Nachsorge verringert werden. Das Projekt: Konzeption eines Kleidungsstücks, das mit Biodetektoren und Elektronikkom ponenten zur Analyse des kardiovaskulären Zustands der Person ausgestattet ist, die es trägt, diese über den eigenen Zustand informiert und gleichzeitig über das Mobiltelefonnetz mit spezialisierten medizinischen Zentren kommuniziert. Dieses Kleidungsstück signalisiert also den Mangel an körperlicher Anstrengung, Übergewicht, Schlafstörungen oder hohen Stress. Wenn eine Anomalie festgestellt wird, wie beispielsweise eine ischämische Episode (mangelnde Blutzufuhr eines Organs), ein aurikuläres Kammerflimmern (ungeordnete Kontraktion der Muskelfasern in den Vorhöfen des Herzens) oder ein anderes mögliches Vorzeichen, das eine mögliche kardiovaskuläre Episode ankündigt, wird sofort das Konsultationszentrum für die Betreuung kontaktiert. Wenn auch die Fabrikation eines intelligenten, mit Biodetektoren ausgerüsteten Kleidungsstücks eine Spitzenleistung darstellt, kann man sich nichtsdestoweniger fragen, ob die Mehrheit der Patienten es hinnehmen wird, sich durch ein elektronisches „Arsenal“ ständig überwachen zu lassen.