Billets classés sous la catégorie « Robotique »

Martin LessardLe point sur la communication cerveau à cerveau (2/2)

par

 publié le 29 octobre 2014 à 15 h 19

Dans la première partie, hier, je recensais les derniers exploits dans le domaine des neurosciences, en particulier sur le plan de la communication cerveau à cerveau.

Si les expériences de télépathie assistée par ordinateur sont encore embryonnaires — et entre vous et moi, on est encore loin d’avoir démontré leur entière pertinence — on peut bien songer à quelques applications d’une telle communication directe avec le cerveau dans un avenir proche.

Libérez ce cerveau

Imaginez que vous êtes Kate Allat, une femme qui a été 10 jours dans le coma en 2010, selon un article publié la semaine dernièreMort cérébrale, avaient diagnostiqué les médecins.

katemailonline

Pourtant, durant tout ce temps, raconte-t-elle, elle a tout entendu.

Ne pouvant ni bouger ni communiquer avec son entourage, elle a entendu tout ce qui a été dit autour d’elle, y compris quand les médecins discutaient de la possibilité de la débrancher.

Puis elle s’est réveillée de son coma.

Est-ce qu’un outil de communication direct avec son cerveau lui aurait permis de communiquer avec l’extérieur de sa prison cérébrale?

L’interface cerveau machine

Un tel outil, qui n’est plus l’idée malade d’un savant fou, mais bien une réalité, pourrait notamment être utilisé pour entrer en contact avec des patients qui ne peuvent plus communiquer, notamment ceux atteints de paralysie totale ou du syndrome d’enfermement.

Récemment, on a testé une interface cerveau-machine capable de capturer des ondes cérébrales très précises. Cette interface permettre au cerveau d’un patient paralysé de communiquer directement avec une machine.

Devant lui, on a déposé un clavier. On lui a demandé de se concentrer sur une lettre du clavier.

Une série de petits flashs lumineux sont apparus sur les touches du clavier. On a observé un stimulus cérébral précis quand ce flash a touché la lettre sur laquelle le patient se concentrait.

Son cerveau avait réagi automatiquement en générant une onde d’une amplitude plus grande que les autres (le P300, qui survient à 300 ms après l’apparition du stimulus).

En capturant ce signal sur l’encéphalogramme, l’ordinateur comprend que le « doigt mental vient de taper sur le clavier« .

Le patient peut ainsi construire petit à petit un message vers le monde extérieur.

Le langage du cerveau

Les lecteurs de Triplex savent que deux initiatives vont, dans la prochaine décennie, tenter de cartographier le cerveau et de le simuler sous forme d’algorithmes. Une en Europe (Human Brain Project) et une aux États-Unis (BRAIN initiative). C’est un chantier aussi gros que la cartographie de l’ADN, il y a 20 ans,

À la fin du mois de septembre, pour fêter le premier anniversaire du BRAIN initiative, les Américains ont invité un étudiant chercheur de la Duke University à venir expliquer en quoi allaient consister ses recherches dans le cadre du Grand Challenge Scholars Program, un programme destiné à soutenir les ingénieurs qui recherchent des solutions aux grands défis scientifiques (dont la « rétro-ingénierie du cerveau« ).

Il a dit qu’il comptait travailler au développement d’un langage commun entre le cerveau et les machines, afin qu’ils puissent mieux communiquer ensemble

L’étudiant chercheur côtoie le Dr Miguel Nicolelis, qui travaille sur le projet Walk Again.

Walk Again est un exosquelette entièrement contrôlé par le cerveau. Il a permis à un adolescent paralysé de donner le coup d’envoi à un match de soccer au Brésil durant la Coupe du monde au printemps dernier.

BIA_EXO_HELMET-300x168

Les projets d’un peu partout convergent, lentement mais sûrement, vers une compréhension de plus en plus grande du cerveau humain.

Tous les exemples à ce jour sont encore anecdotiques ou alors spécifiques à un handicap particulier. Mais ils montrent tous que la communication directe avec le cerveau est possible.

Observez bien ce qui se passe autour de vous. Toutes ces têtes aux cerveaux emprisonnés. Se pourrait-il que ce soit comme ça que les gens du futur nous perçoivent un jour?

Martin LessardLe point sur la communication cerveau à cerveau (1/2)

par

 publié le 28 octobre 2014 à 12 h 15

Tout d’un coup, l’expression B2B ne veut plus dire Business to business (« commerce électronique interentreprises »), mais Brain to brain (« cerveau à cerveau »).

Il y a deux participants, un en Inde, et l’autre en France. Ils vont se transmettre de cerveau à cerveau des messages simples, soit « hola » et « ciao ».

C’est l’expérience qui a été réalisée par des chercheurs de la Faculté de médecine de Harvard, de l’Université de Barcelone, de la firme espagnole Starlab et de la société française Axilum Robotics.

Publiée à la mi-août par la revue scientifique américaine PLOS one, l’expérience montrait concrètement comment effectuer une transmission consciente d’information de cerveau à cerveau, en utilisant des technologies non invasives :

  1.  Le sujet en Inde, l’émetteur, portait un casque connecté à des électrodes sur la tête, qui transmettaient ses activités cérébrales.
  2. Un ordinateur a converti ces impulsions en code binaire.
  3. Ce message a été envoyé par courriel à l’équipe de recherche en France.
  4. Un ordinateur a converti sous forme de phosphènes, des flashs lumineux recréés par la rétine, générés par stimulation magnétique transcrânienne.
  5. Le deuxième sujet, le récepteur en France, a reçu et décodé le message

Améliorez chacune des étapes (encodage, transmission, décodage) et vous voyez tout le potentiel que cette expérience offre. La télépathie par Internet, car c’est ce dont il s’agit, n’est plus du domaine de la science-fiction.

Désenclaver le cerveau

Déjà en 2012, une femme tétraplégique avait réussi à contrôler un bras robotisé par la pensée.

Quand on demandait à la femme de 52 ans, Jan Scheuermann, de penser à son membre inactif, les chercheurs voyaient à travers un scanner quelle partie du cerveau s’activait.

Un algorithme interprétait ensuite les décharges neuronales dans son cerveau comme des commandes pour faire bouger le bras mécanique, celui qui était connecté au bout de ces microélectrodes plantées dans son cerveau. (Lire sur Triplex à propos cette expérience)

Puis, en 2013, autre avancée!

Des chercheurs de l’Université de Washington ont réussi à faire connecter deux cerveaux humains.

L’émetteur portait un casque qui analysait son activité cérébrale. Il jouait à un jeu vidéo où il devait tirer sur un objet avec un canon. Il devait penser qu’il bougeait son doigt, mais sans le bouger du tout.

La machine qui enregistrait l’électroencéphalogramme a envoyé le résultat, à l’autre bout du campus, au récepteur qui portait un stimulateur magnétique transcrânien.

Ce stimulateur a donné l’impulsion au récepteur d’appuyer sur le bouton, alors que lui-même ne voyait pas le jeu vidéo.

Le récepteur, lui, a simplement ressenti un tic nerveux, et son doigt a bougé tout seul.

Comment envoyer un message dans un cerveau

_________journal.pone.0105225.g001

Dans l’expérience annoncée cet été, la télépathie par Internet, l’émetteur et le récepteur, séparés par des milliers de kilomètres, se sont envoyé un message encodé.

Pour encoder le message « hola », l’émetteur avait le choix entre deux pensées distinctes, soit « bouger les pieds » ou « bouger les mains », chacune produisant une onde cérébrale différente.

En utilisant l’électroencéphalogramme du sujet émetteur, l’équipe de recherche située en Inde a d’abord converti les ondes cérébrales en code binaire.

L’onde cérébrale des pieds a été traduite en 0, et celle des mains en 1. Le message ainsi codé a été envoyé par courriel à l’équipe située en France.

Ce message codé en bits a alors été transmis au receveur par une transmission magnétique transcrânienne (TMS) qui générait des phosphènes.

Un phosphène est la sensation bizarre de voir des flashs lumineux quand on ferme très fort les yeux. Aucune lumière ne vient toucher la rétine et, pourtant, on perçoit de la lumière. C’est notre cerveau qui « crée » la lumière. Le TMS génère artificiellement ces phosphènes.

Du point de vue du récepteur, si aucun phosphène n’apparaissait, la valeur était de 0. Si un phosphène apparaissait, la valeur était de 1. Cette lumière apparaissait dans le cerveau du receveur en séquences numériques, ce qui lui permettait de décoder le message à la façon d’un code morse.

Communiquer directement avec le cerveau

Actuellement, côté réception, c’est grâce à un robot conçu par cette société française, Axilum Robotics, qu’on peut d’obtenir une précision dans la transmission du message par stimulation magnétique transcrânienne.

Dans l’état actuel des choses, cette preuve de concept montre la faisabilité de la communication entre deux cerveaux. Mais dans le cas d’Axilum Robotics, ce type de télépathie assistée par ordinateur n’est pas le but.

Selon l’entreprise, un tel moyen de transmission de messages devrait plutôt permettre de communiquer avec des personnes paralysées, par exemple, après un accident vasculaire cérébral (AVC) et qui auraient perdu l’usage de la parole.

Ce qui est plus probable de voir se développer dans un proche avenir, au lieu de la télépathie assistée par ordinateur, c’est davantage les interfaces directes entre un ordinateur et un cerveau humain.

Demain, nous verrons ce qui se profile dans l’application de ces technologies de communication directe avec le cerveau.

Martin LessardFrankenstein robot

par

 publié le 2 octobre 2014 à 12 h 20

Modéliser l’œil humain et un cerveau de rat pour améliorer la performance d’un robot?

Cela pourrait révolutionner les avancées en neurosciences et en robotique, selon un article publié cette semaine dans le journal britannique Philosophical Transactions of the Royal Society B.

Les chercheurs affirment que nous sommes théoriquement en mesure de combiner la compétence inhérente des animaux à se repérer dans un environnement avec la perfection de l’oeil humain pour permettre à un robot de se déplacer de façon plus adéquate. A

utrement dit, nous pourrons fabriquer une espèce de monstre de Frankenstein avec les meilleurs morceaux tirés de modèles de plusieurs espèces.

Et deux morceaux de bio!

La plupart des systèmes de navigation robotiques emploient divers capteurs, une base de données sur le monde environnant et des algorithmes de navigation.

La méthode de navigation des êtres vivants est beaucoup plus flexible. Capable de supporter l’incertitude dans la détection et l’observation, notre cerveau modélise en permanence notre monde grâce à son cerveau habile et à ses sens aiguisés. neurone Cette nouvelle des chercheurs arrive en même temps que le premier anniversaire ce mois-ci des deux mégaprojets de recherche du cerveau, l’un américain, l’autre européen.

Les lecteurs de Triplex se rappellent que le BRAIN Initiative du président Obama et le Human Brain Project de la Commission européenne avaient la mission d’explorer, de découvrir et de comprendre le potentiel de la matière grise durant la prochaine décennie.

Cette concurrence transatlantique table sur les avancées à venir en informatique et en « Big data » pour parvenir à comprendre comment fonctionne le cerveau… et à le simuler.

Or, justement, un des succès du projet européen jusqu’à ce jour est d’avoir réussi à créer une modélisation en 3D, biologiquement réaliste, du cervelet d’un rat. Le cervelet joue un rôle important dans le contrôle moteur pour assurer la coordination, la synchronisation et la précision des mouvements.

C’est une région qui contient 50 % des neurones du cerveau, bien que sa taille ne représente que 10 % du cerveau. La mémoire spatiale du rat est très performante, mais son système de vision laisse à désirer. Or l’oeil humain est de loin supérieur. Nous avons d’excellents algorithmes pour simuler le fonctionnement de l’oeil humain.

Nous voilà rendus là. En modélisant le vivant, toutes espèces confondues, nous avons la possibilité théorique de reprendre le meilleur de chacun et d’en doter le robot du futur.

Et nous sommes seulement à 10 % du programme de recherche des deux mégaprojets sur le cerveau.

Martin LessardHitchbot, l’ambassadeur des robots parmi nous

par

 publié le 22 août 2014 à 12 h 15

HitchBot, le petit robot auto-stoppeur qui est parti d’Halifax, en Nouvelle-Écosse, le 27 juillet dernier est arrivé hier à Victoria, en Colombie-Britannique.

Le projet avait une mission : découvrir si les robots peuvent faire confiance… aux humains! C’est une expérience, on s’en doute, à la fois artistique, sociale et scientifique.

Pour être toutefois sûrs que Hitchbot ne se fasse pas voler et démonter en petites pièces dès les premiers instants où on le laisserait tout seul, ses constructeurs (qui connaissent bien les humains!) l’ont fabriqué dans des matériaux peu nobles.

Le robot ressemble à un gros pot de peinture avec des pattes et des bras en tube de styromousse, affublé de gants de jardinage.

hitchbot

Il est surmonté d’une tête avec un écran DEL pour afficher un petit sourire. Il possède une caméra et un micro, et est capable de soutenir une conversation de base grâce à son programme de reconnaissance vocale (son « intelligence » est tirée de Wikipédia).

Hitchbot a accès au 3G et à wifi et il a partagé son périple sur les réseaux sociaux, comme Facebook et Twitter.

On le recharge à l’aide de l’allume-cigarettes.

L’enfer, c’est nous autres

HitchBOT est une création de professeurs canadiens de l’Ontario. C’est une expérimentation sur les rapports robot-humains grâce à l’intelligence artificielle et à la reconnaissance vocale.

Comme il ne pouvait marcher, le robot devait faire de l’auto-stop. Toujours le pouce en l’air, il est déposé sur le bord de la route en espérant que des âmes charitables l’amènent à destination.

On peut penser que, plus il y avait de monde au courant de son périple, plus il avait de chances de réussir à arriver à destination, au lieu de finir dans une décharge publique.

L’intérêt de cette sympathique expérimentation tient au fait qu’aujourd’hui on fabrique des robots de plus en plus puissants pour résister à toutes sortes d’environnements, mais qu’on n’a jamais testé sa résistance à… l’environnement social humain.

Si on pense que les robots seront un jour parmi nous, il faut commencer à faire des tests maintenant et à en lâcher quelques-uns dans la nature pour voir comment la société humaine va réagir.

Il semble que la « première rencontre » se soit bien passée.

Les robots sont là

Les robots finiront par arriver dans nos vies, soyez-en sûrs. Et cette semaine, c’était le cas pour les clients de l’hôtel Aloft, à Cupertino, en Californie.

Deux robots-concierges ont maintenant pour tâche d’apporter des articles aux clients dans leur chambre.

alo

Par exemple, si un client appelle à la réception pour se faire monter une bouteille d’eau, le préposé dépose la bouteille dans le panier du robot et programme ensuite le numéro de la chambre.

Ce qui serait fait les doigts dans le nez par un jeune « Spirou » est tout de même un petit exploit pour le robot. Il doit être capable de se repérer dans l’hôtel, de prendre l’ascenseur (il communique par sans-fil pour appeler l’ascenseur et choisir l’étage) et de se rendre à la bonne porte — tout cela sans écraser qui que ce soit.

Notez en passant que ces robots-concierges n’acceptent pas de pourboire, mais aiment recevoir des tweets avec le mot-clic #MeetBotlr comme remerciement.

Ce qui est nouveau ici, ce n’est pas qu’un robot puisse se promener tout seul dans un immeuble (ce type de robots existent déjà dans certaines grosses usines ou manufactures), mais de voir ces robots passer du côté du service à la clientèle!

Les frictions à venir

Ici aussi, c’est du côté de l’acceptation sociale que se passe le vrai test (si l’expérience est concluante, la chaîne d’hôtels placera des robots dans ses 100 autres hôtels).

À Shangai, ce mois-ci, un restaurant vient d’ouvrir où des robots sont dans la cuisine pour préparer la nourriture et dans la salle pour servir les clients. Ce sera probablement davantage une attraction touristique qu’un restaurant pour bien manger, mais, tout de même, vous voyez où je veux en venir.

Le problème ne se situe pas dans le fait que nous refuserions de nous faire servir par un robot – au contraire! –, mais dans celui qu’il nous faudra vaincre cet irrépressible malaise qui nous prend à la gorge en pensant que le sympathique robot qui nous sert « vole des jobs » à de vrais humains (lire mon billet Se faire remplacer par un iPad?).

Je suis moins sûr que cela passera comme une lettre à la poste, ou pour utiliser une nouvelle métaphore, comme un « Hitchbot à travers le Canada »…

Martin LessardRobots : tous pour un, un pour tous

par

 publié le 19 août 2014 à 9 h 59

Il serait tellement plus simple de voir sortir un C3PO des laboratoires de robotique pour nous donner un aperçu de l’état d’avancement en ce domaine.

Mais nous n’y sommes pas encore. Il nous faut nous contenter d’avancements majeurs qui n’ont l’air d’absolument rien aux yeux du grand public.

Tenez, prenez cet exploit de l’Université de Harvard, qui a annoncé récemment avoir fait fonctionner le plus grand essaim de robots du monde.

Jusqu’à récemment, des robots arrivaient à se coordonner en petits groupes limités d’une douzaine de membres, parfois d’une centaine.

Cette fois, c’est plus de 1000 robots.

Le nouvel horizon de la robotique

Pour la première fois, 1024 petits robots ont formé de façon autonome des formes 2D complexes comme des étoiles ou des lettres de l’alphabet.

Les petits robots, appelés Kilobots, gros comme des balles de ping-pong, ont été choisis parce qu’ils ne coûtent pas chers à fabriquer.

Kilobots

Kilobots

Ils ont chacun un microcontrôleur intégré, des capteurs infrarouges, des transmetteurs pour communiquer et un petit moteur de vibration qui leur permettent de se déplacer tout droit ou pour tourner. Chaque robot ne peut communiquer qu’avec les autres robots à proximité immédiate.

Pour faire la forme finale désirée, on transmet d’abord à tous les robots l’image 2D. Puis on place quatre robots fixes qui servent de point de départ.

Ensuite, certains des robots commencent à se déplacer de façon autonome pour aller s’accumuler successivement afin de créer la forme en un long mouvement collectif.

OK. Il ne faut pas être pressé. Ça peut prendre environ 12 heures à ces robots pour s’assembler selon la forme prescrite.

Mais mine de rien, l’exploit, ici, c’est que les robots arrivent à avoir un comportement de groupe, comme les fourmis, alors qu’ils n’ont aucune coordination centrale. Tout l’intérêt réside dans la conception d’un algorithme capable de créer un système auto-organisé autonome.

Robots, arrangez-vous tout seuls!

Cet essaim de robots en particulier développé à Harvard n’a d’intérêt que pour cet algorithme capable de faire collaborer autant d’éléments indépendants.

Remplacez ces petits robots par des minidrones ou des voitures autonomes, et vous avez tout à coup devant vous ce qui ressemble à l’avenir de la robotique : une forme de coordination cybernétique autonome.

Kilobots

Kilobots

En fait, ces robots pourraient être de différentes grandeurs, l’algorithme n’ayant pas besoin d’être changé complètement pour autant. Exemples.

  • Petits, ils seraient utiles pour passer des câbles dans des tuyaux ou s’assembler comme des pièces de blocs LEGO.
  • Plus petits encore, à un niveau nanométrique, ils pourraient s’insérer dans le réseau vasculaire pour faire un diagnostic ou un traitement quelconque (bloquer ou débloquer une artère).
  • Plus grands, à notre échelle, ils pourraient être des drones agricoles chargés d’analyser un champ.
  • Plus grands encore, c’est tout le réseau routier, composé de ces éventuelles voitures autonomes qu’on nous promet, qui pourrait profiter de l’algorithme.

Et bien sûr, pour ceux qui ont vu la première trilogie de La guerre des étoiles, cet algorithme pourrait aussi servir à coordonner un bataillon d’éventuels robots-combattants. Et comme on sait que, de nos jours, la réalité rattrape la fiction…

Autonomes, mais grégaires

Cette expérience de Harvard est un pas dans la direction de meilleurs systèmes auto-organisés. L’algorithme doit encore beaucoup évoluer pour qu’elle puisse réellement être efficace hors laboratoire, à grande échelle.

Michael Rubenstein, le chercheur de Harvard derrière cette expérience, a dit vouloir améliorer son programme de telle sorte que chaque robot puisse agir de façon vraiment autonome. Éventuellement, ils seront capables de s’assembler dans une forme ad hoc en fonction de l’environnement sans qu’on ait à le leur dire.

Pour ceux que le sujet intéresse, le plan des Kilobots ainsi que le logiciel sont accessibles en code source libre sur le site du projet de recherche en système auto-organisé de Harvard.