Avis juridique important
   
Contact   |   Recherche   
RDT info logoMagazine de la recherche européenne N° 51 - Décembre 2006
Top
 ACCUEIL
 SOMMAIRE
 EDITORIAL
 L'e-inclusion, côté pile et face
 Biotechnologies: cote de popularité en hausse
 "Un scientifique parlant vrai peut faire des dégâts"
 Diabète + obésité = diabésité
 L'historique génome de la levure
 Rebelle aux causes multiples
 Sur les traces des sixties
 Graines de Nobel
 COMMUNIQUER LA SCIENCE
 BREVES
 PUBLICATIONS
 AGENDA

Télécharger le pdf de en fr


Société de l'information
Title  Homme-machine: de nouvelles communications

L’informatique cherche de nouvelles voies pour communiquer avec l'être humain, en utilisant toutes ses possibilités polysensorielles. L'ordinateur devient sensible à des commandes tactiles de plus en plus subtiles, interprète les mots que nous prononçons et est capable d'y répondre. Il commence à décrypter nos mouvements oculaires. Des informaticiens explorent des pistes de quasi science-fiction où la machine arrive à interpréter des ordres "mentaux" ou étendre ses ramifications jusque dans nos vêtements pour s’occuper de notre santé. Ces technologies, dites d'interface, doivent répondre en premier lieu aux besoins des citoyens les plus fragiles – les personnes âgées ou handicapées. Mais, au-delà de ces groupes prioritaires, ces innovations pourraient transformer radicalement l'ensemble des modes de communication entre les hommes et les machines.

Expérimentation dans le cadre du projet Maia
Expérimentation dans le cadre du projet Maia (Mental augmentation through determination of intended action). Connecté grâce à une trentaine d’électrodes d'encéphalographie, l’opérateur fait reconnaître à l’ordinateur un mouvement de sa main droite ou gauche par la seule action de sa concentration mentale. Le projet vise en particulier des applications telles que le guidage de fauteuil roulant dans un environnement fermé et la commande de bras robotisés pour effectuer des tâches de manipulation à distance.
Comment, pour une personne souffrant d’un problème moteur, sepasser de l'accès au traditionnel couple clavier/souris ou pour uneautre, malvoyante, de l’inévitable écran? Le monde de l'informatique restedifficile pour des centaines de millions d'individus de par le monde, qu’ilssoient handicapés ou pâtissent d’un décalage culturel dû à l'âge ou aux conditions sociales. Un vaste consensus existe aujourd'hui pour considérerque la fracture numérique constitue un défi démocratique majeur de la société de l’information. Sur le plan technologique, l'une des questions posées est donc celle de la diversification et de l'innovation dans les interfaces de communication avec l'ordinateur.

La vue et l'ouïe, la voix et le toucher
En informatique, les technologies d'interface entre l'utilisateur et la machine forment un domaine logiciel spécifique, baptisé "couche API" (Application Programming Interface), qui s'ajoute de façon formellement indépendante à l'architecture interne de l'ordinateur. Exemple très ancien: un traitement de texte est indépendant du clavier grâce auquel les caractères sont tapés. Entre les deux réside l’API, chargée de recevoir l’information transmise par tel ou tel clavier et de la convertir en instructions "universelles" utilisables par le traitement de texte, quelle que soit "l'écriture linguistique" utilisée.

Actuellement, les deux maîtres de l'interface sont l'écran – basé sur le sens de la vue – et la souris, cette commande multifonctionnelle de nature tactile. Née dans les années '60, puis massivement popularisée dans les années '80, cette extraordinaire invention a introduit un outil foncièrement nouveau par rapport à l'usage séculaire du clavier de la machine à écrire. Toutefois, la souris s'inscrit foncièrement dans le processus qui privilégie le "tout graphique". Comment s'en passer?

Une innovation étudiée de longue date (IBM y travaillait déjà dans les années '70) est l'utilisation de la voix et de l'ouïe. Les logiciels de reconnaissance et de synthèse de la parole deviennent monnaie courante dans de nombreuses applications. Une étape prochaine sera leur adaptation au traitement de texte, soit pour la dictée, soit pour l'écoute: les algorithmes capables d’extraire d’un texte un flux de phonèmes et de le transférer à un synthétiseur vocal pour le restituer en audio feront bientôt partie de l’équipement standard du PC.

Un autre développement prévisible est en liaison avec le sens du toucher – que les spécialistes baptisent l'interface haptique (1). Ainsi les partenaires du projet Grab (voir: plus de précisions: Commander un ordinateur du regard) développent des outils de simulation robotique pour parcourir du bout des doigts les contours d’une image tridimensionnelle. Une telle application dépasse la simple adaptation d’outils informatiques standards pour des personnes malvoyantes en proposant d’appréhender l’information numérique par ce canal totalement nouveau de la perception tactile. Les architectes l’utiliseront-ils pour élaborer "à la main" des maquettes numériques? Les télé-chirurgiens vontils pouvoir "toucher" les organes d’un patient qu’ils opèrent à plusieurs milliers de kilomètres de distance par le biais d’un robot? Ces technologies ouvrent des possibilités d'applications dans de multiples domaines, dépassant largement le monde des personnes handicapées.
Pour les personnes paralysées, ce sont les mouvements des yeux qui commandent l'ordinateur. Ici, un faisceau infrarouge permet d’accentuer le contraste entre la cornée, l’iris et la pupille. Un logiciel détecte la position de cette dernière pour savoir où l’opérateur fixe son regard. Des interfaces adaptées au contrôle oculaire, développés par le projet européen Cogain, permettent d'écrire jusqu'à 25 mots par minute, soit un peu moins du score moyen réalisé au moyen de clavier.
©Cogain/Paivi Marajanta


Du regard à la pensée
Mais les perspectives d'innovation vont encore beaucoup plus loin – non sans susciter un certain effroi devant le pouvoir d'intrusion qu'elles donnent à la machine – quand l'interface fait intervenir l'interprétation du regard ou même du mental. Ainsi le projet européen Cogain (voir encadré) est dédié aux dizaines de millions de personnes dans le monde souffrant de paralysie en visant une communication entre l'homme et la machine commandée par les mouvements des yeux. Päivi Majaranta, de l'université de Tampere (FI), son coordinateur, estime que cette technologie "peut aussi trouver des débouchés dans d’autres applications en rendant les ordinateurs attentifs à l’utilisateur, par exemple, dans le domaine des jeux ou de la vidéo conférence". Big Brother is watching you?

Pour les personnes paralysées, l’ultime solution serait cependant de se passer de tout mouvement. Est-on dans la science-fiction quand on imagine de commander un ordinateur par la pensée? Le mariage entre la cybernétique et les neurosciences permet de l'envisager. Certains chercheurs expérimentent des techniques dites intrusives, par lesquelles des puces électroniques, implantées dans le corps humain, peuvent être directement raccordées aux neurones. Ainsi l'équipe de John Donoghue (Brown University - USA) vient-elle de présenter publiquement dans Nature le cas d'un jeune paraplégique de 26 ans, Matthew Naggle, auquel unegauche). "prothèse neuromotrice" a été insérée dans la région du cerveau commandant les mouvements volontaires. Cette prothèse capte ainsi l'activité des neurones et transmet ces données à des ordinateurs qui traduisent cet influx pour commander un curseur.

D’autres chercheurs travaillent sur des méthodes douces, ne nécessitant pas d’intervention chirurgicale. Un casque muni d’électrodes enveloppe alors le crâne de l’opérateur pour capter les ondes électriques émises par la partie supérieure du cerveau, le cortex cérébral. L’information neuronale, donnée par exemple par un électroencéphalogramme et transmise à un logiciel, est identifiée et classée de manière à ce qu'elle corresponde à une commande simple et prédéfinie (tel, dans ce cas également, le déplacement d'un curseur vers la droite ou la gauche).

Le défi de la plasticité cérébrale
L’ordinateur doit donc associer une commande à un schéma mental. Le premier défi est d'ordre technologique: il faut apprendre à la machine la reconnaissance et l'identification de signaux donnés par le cerveau. L'autre difficulté est humaine. Si, globalement, les neurosciences associent à certains processus mentaux des aires actives du cerveau, l’homme est incapable de reproduire à l’identique l’activation des mêmes neurones en pensant à la même chose. Cette plasticité des mécanismes cérébraux fait que l’électroencéphalogramme d’un même sujet imaginant un mouvement de sa main droite sera à chaque fois différent. Pour José del R. Millán, coordinateur du projet européen Maia (Mental Augmentation through Determination of Intented Action),"les interfaces cerveauordinateur ont certes le potentiel pour offrir un nouveau canal de communication avec les ordinateurs. Cependant, elles ne sont pas utilisables aujourd’hui en dehors du laboratoire et encadrées par des experts." Selon lui, les principales voies à explorer sont l’interaction et l’adaptation des deux acteurs du système: l’homme et la machine. Celle-ci doit apprendre en permanence à s’adapter aux schémas cérébraux changeants de l’opérateur.

Télé-autonomie assistée
Mais l’interface ne fait pas tout. L’autonomie des personnes âgées et handicapées intervient également dans d'autres types de recherche, notamment le volet télécommunication de certains projets. Ainsi Galileo, qui doit mener au futur "GPS" européen, offrira-t-il un système de positionnement par satellites capable d'indiquer une situation au mètre près. Grâce à cette précision et à un système d’information géographique détaillé, chacun pourra connaître exactement sa position et calculer le meilleur chemin pour rejoindre l’arrêt de bus ou le passage piétonnier le plus proche. Pour les personnes malvoyantes, il suffira donc de créer une interface vocale fournissant une "carte auditive" complète du lieu où elles se trouvent.

Un autre grand défi des prochaines décennies est le maintien à domicile des personnes âgées. Des projets comme Healthservice24, Chronic ou MyHeart (voir encadré) proposent des analyseurs de signaux vitaux utilisables à domicile et transmettant directement leurs relevés à des services médicaux via l’UMTS ou le GPRS (protocoles de transmission pour la téléphonie mobile). Ces informations seront traitées immédiatement dans les centres de soins et déclencheront une action en cas de besoin. Les praticiens pourront alors entrer en contact avec le patient grâce à un système de vidéoconférence, par Internet ou via la télévision numérique. C’est donc une infrastructure complète qui est étudiée: surveillance des patients à domicile, consultation à distance, stockage du suivi médical de la personne permettant au médecin de disposer d’une information complète à son sujet.

(1) Du grec haptein (toucher), le terme haptique désigne la science du toucher, par analogie avec acoustique ou optique.

Version imprimable
  PLUS DE PRÉCISIONS  
  Des images que l’on peut toucher
Projet réunissant six équipes de quatre pays (Espagne, Royaume-Uni, Irlande, Italie), Grab (Computer GRaphics Access for Blind people through a haptic virtual environment) veut offrir aux non voyants ...
 
  Commander un ordinateur du regard

Sarah est rivée dans son fauteuil. Elle ne peut bouger ni les jambes ni les bras. Malgré son handicap, elle travaille...
 
  MyHeart: prévenir les maladies cardio-vasculaires

Infarctus, arythmie, attaques cardiaques… Environ 20% des Européens souffrent de maladies cardio-vasculaires et 45% en meurent...
 

  POUR EN SAVOIR PLUS  
 
  • Grab
  • Maia
  • Cogain
  • MyHeart
  • Chronic
  •  

       
      Top
      Des images que l’on peut toucher

    Projet réunissant six équipes de quatre pays (Espagne, Royaume-Uni,
    Irlande, Italie), Grab (Computer GRaphics Access for Blind people through a haptic virtual environment) veut offrir aux non voyants un accès au monde graphique des ordinateurs. L’utilisateur glisse ses deux index dans des réceptacles portés par des bras montés sur vérins qui vont simuler la résistance qu’offrirait une image en trois dimensions si elle était parcourue du bout des doigts.
    L’équipement consiste en ce couple de bras articulés – interface haptique (1) – une unité de reconnaissance et de synthèse vocale permettant la communication entre l’homme et la machine et un logiciel de modélisation de géométrie tactile qui pilote l’interface. Ce logiciel est générique, c’est-à-dire qu’il peut s’adapter à différents types d’interfaces haptiques et utiliser toute image tridimensionnelle encodée selon la norme standard d’échange entre systèmes CAD (conception assistée par ordinateur). Des non voyants ont pu tester cette innovation, notamment en expérimentant une chasse au trésor dans un bâtiment parsemé de pièges et en découvrant la structure d'une ville à partir d’une carte reconstituée.

    (1) Du grec haptein (toucher), le terme haptique désigne la science du toucher, par analogie avec acoustique ou optique.
      Commander un ordinateur du regard

    Etude des mouvements oculaires
    © Cogain/Paivi Marajanta
    Sarah est rivée dans son fauteuil. Elle ne peut bouger ni les jambes ni les bras. Malgré son handicap, elle travaille sur son ordinateur pour concevoir des pages web. Ses yeux fixent l’écran alorsqu’un contrôleur de mouvements oculaires braqué sur euxdétecte leurs moindres mouvements. Caméras et faisceaux infrarougesidentifient à tout moment quelle partie de l’écran Sarahregarde. Les yeux font glisser le pointeur à l’écran, ce qui permet d’actionner menus et boutons des logiciels avec une précision d’un demi-centimètre. Il lui suffit de cligner des yeux ou de fixer le même point quelques secondes pour déclencher un clic.

    Pour dactylographier un texte, Cogain développe aussi des interfaces spécialement adaptées au contrôle oculaire, qui font défilerles séquences de lettres séparées par des zones de couleurs.L’utilisateur déplace en continu le curseur à l’écran en passantde l’une à l’autre, sélectionnant la lettre associée. Toute l’astuceréside dans l’organisation spatiale de ces zones colorées dont la juxtaposition est étudiée pour permettre une complétion intuitive des mots. Un espace pour la lettre V est, par exemple, frontalier d'un autre réservé à la diphtongue OU, lui-même jouxtant celuidu S. Tout cela permet d'écrire le mot Vous d’un mouvement del’oeil. Un utilisateur aguerri peut écrire jusqu’à 25 mots parminute – un peu moins de la moitié du score d'un utilisateur moyen face à son clavier.

      MyHeart: prévenir les maladies cardio-vasculaires

    Infarctus, arythmie, attaques cardiaques… Environ 20% des Européens souffrent de maladies cardio-vasculaires et 45% en meurent. Pour MyHeart, un consortium d’une quarantaine de partenaires européens, emmenés par Philips, ces chiffres pourraient être réduits par une meilleure prévention et un suivi personnalisé. Le projet ? Concevoir un vêtement truffé de biodétecteurset d’ électronique pour analyser l’état cardiovasculaire de celui qui le porte, le renseigner et également communiquer via les réseaux de téléphonie mobile avec des centres médicaux spécialisés. Ce vêtement signale donc le manque d’effort physique, la surcharge pondérale, les troubles du sommeil ou l'excès de stress. S’il détecte une anomalie comme un accident ischémique (arrêt de l’apport sanguin), une fibrillation auriculaire (contraction anarchique des oreillettes) ou tout autre signe annonciateur d’un possible accident cardio-vasculaire, il contacte directement le centre de soins pressenti. Si la fabrication d’un vêtement intelligent bardé de détecteurs biophysiques représente une prouesse technologique, on peut néanmoins se demander si la plupart des patients accepteront de se voir surveillés en permanence par un arsenal électronique.