Billets classés sous la catégorie « Robotique »

Cette nouvelle est à la jonction des neurosciences et de la biotechnologie, mais on pourrait aussi bien penser que c’est de la science-fiction.

Grâce à un article publié la semaine dernière dans la revue Interface de la prestigieuse institution britannique Royal Society, la science nous montre comment brancher et contrôler à distance une coquerelle (aussi appelée blatte).

cyborgcoquerelle

Avec une puce électronique et une petite batterie au lithium collées sur le dos d’une coquerelle, et des fils branchés sur son système nerveux, il est possible de diriger l’insecte où l’on veut.

C’est en quelque sorte une coquerelle cyborg télécommandée.

En lui ajoutant une caméra miniature ou un micro, précisent les chercheurs, elle devient une sonde pour accéder aux endroits inaccessibles, par exemple pour une fouille après un effondrement de bâtiment.

Toutefois, n’anticipons pas trop. Ce n’est encore qu’un prototype. Les chercheurs n’arrivent à contrôler l’orientation de la coquerelle que dans 60 à 70 % des cas.  Il y a donc encore place à l’amélioration. C’est la façon dont ils se prennent qui est originale.

Contrôlée de l’intérieur

La puce envoie des signaux grâce à deux fils. Ceux-ci sont branchés directement sur les nerfs qui contrôlent les pattes de l’insecte, de chaque côté.

Il faut savoir que les coquerelles ont trois pattes de chaque côté, qui avancent de façon synchronisée.

En envoyant une impulsion électrique sur la patte du milieu, on désynchronise le pas. Selon le côté où l’on envoie la décharge, la désynchronisation des pas fait tourner l’insecte d’un bord ou de l’autre.

Les chercheurs vont tenter d’expérimenter pour contrôler davantage de pattes et augmenter la performance de l’insecte.

Si cette façon de faire est originale, contrôler une coquerelle à distance n’a rien de nouveau. À ce propos, nous sommes déjà au-delà de la science-fiction. Voilà déjà une quinzaine d’années que l’on sait comment contrôler les coquerelles par la technologie.

RoboRoach, une coquerelle à votre service

L’ancienne technique consistait à stimuler les antennes des coquerelles pour leur faire croire qu’elles frappaient un obstacle —on les trompait par rapport à leur environnement pour les faire dévier.

Cette technique est relativement simple et, si vous le voulez, vous pouvez vous-même l’essayer. Oui, oui.

Il existe des ensembles en vente sur Internet pour contrôler votre propre coquerelle avec la méthode de stimulation des antennes.

roboroach-ficge

Ça s’appelle RobotRoach. C’est un ensemble conçu pour les cours de sciences à l’école. RobotRoach est le résultat d’une campagne de sociofinancement menée sur Kickstarter en 2013.

On colle la puce sur le dos de la coquerelle (vendue séparément, en paquet de 12. Eh oui!), on lui colle les antennes et on sort son téléphone portable pour la contrôler. Les signaux sont envoyés aux antennes pour simuler un obstacle et la faire dévier.

Le problème avec cette approche, c’est qu’avec le temps, les coquerelles finissent par ignorer les signaux —elles ne sont pas folles, elles voient bien que leurs antennes les trompent.

Que fait-on des coquerelles qui ont découvert l’astuce? Le site suggère de les mettre à la retraite –bien méritée dans leur cas– afin qu’elles se reproduisent et vous procurent d’autres cobayes, tout plein d’autres cobayes! (Qui a dit qu’être scientifique ne demandait pas d’avoir des nerfs d’acier?)

La nouvelle technique est plus durable, mais soulève des questions éthiques

Avec la nouvelle approche, celle où l’on se branche directement sur le système nerveux de l’insecte, on contrôle la coquerelle de l’intérieur.

Ce n’est pas elle qui interprète un signal, c’est le signal qui lui dicte quoi faire (en fait, c’est une patte sur trois qui reçoit l’impulsion).

La science est capable de pirater le système nerveux des insectes —et aussi des êtres plus gros, comme le rat.

En piratant leur système nerveux, on fabrique des marionnettes vivantes, contrôlées par une télécommande.

On pourrait argumenter que la coquerelle ne fait pas partie des êtres vivants qui méritent notre compassion.

Mon petit doigt me dit qu’il y a des questions qui semblent triviales au début (débattre des droits des blattes), mais qui sont le point de départ d’un chemin qui mène à de plus sérieuses questions.

Si vous avez vu le film La matrice, vous aurez un petit frisson. Aujourd’hui, c’est la coquerelle. Demain, qui sait?

On est encore bien loin de La matrice – ça, ça restera toujours de la science-fiction, à mon avis–, mais on avance assurément dans cette direction.

Je ne sais pas si le libre arbitre existe chez la coquerelle. Je sais, en tout cas, qu’elle risque demain d’obéir au nôtre.

Martin LessardWatson à notre service (ou serait-ce l’inverse?)

par

 publié le 6 février 2015 à 17 h 15

IBM a annoncé cette semaine qu’elle venait d’ajouter cinq nouveaux modules de services pour accéder à la puissance de Watson.

Watson est ce superordinateur qui avait battu les champions du monde à Jeopardy. Il s’était montré supérieur à simuler la connaissance générale, démontrant par là même que des compétences cognitives, que l’on croyait réservées aux humains, peuvent aussi être partagées par la machine.

Watson ne cherche pas à rester un champion de Jeopardy. Il veut devenir le partenaire incontournable des entreprises. Voici ces cinq nouveaux modules offerts en ligne qui permettent de mettre Watson à votre service.

New-services-e1422814890751

Deux de ces services ajoutés concernent la transposition automatique de la voix au texte (et vice-versa). Vous proposez des enregistrements (en anglais) et Watson vous retourne des textes, et l’inverse.

Le troisième module concerne la reconnaissance visuelle (analyse du contenu d’une image). Vous proposez un JPEG et Watson va vous en révéler son contenu (sous forme de probabilités).

Les deux derniers modules m’ont particulièrement intéressé. Ils sont révélateurs, à mon avis, du type de défis que pose l’intelligence artificielle sur le marché du travail.

  • Concept Insight: Ce module explore les liens conceptuels cachés dans la masse d’information ingurgitée par Watson, au-delà de la simple comparaison de textes mot à mot.
  • Tradeoff Analytics: Ce module permet de prendre des décisions en temps réel basées sur des paramètres statiques ou évolutifs, afin de définir des solutions de rechange optimales dans la prise de décision.

On parle ici d’aide à la décision.

Comprendre le monde…

Ces cinq modules s’ajoutent aux huit autres déjà offerts, dont deux qui permettaient de modéliser un utilisateur pour en extraire ses préférences et son niveau de langage, afin qu’un message puisse mieux « résonner » auprès de sa cible.

Je ne sais pas pour vous, mais la plupart de ces modules simulent des compétences qui me semblent être celles qu’on accorde généralement à des directeurs, des conseillers ou des analystes, dans des domaines comme le marketing, la publicité ou le service à la clientèle.

Les lecteurs de Triplex sont bien au courant des avancées des technologies qui auront des conséquences sur la société de demain et le marché du travail en particulier.

Je me demande si le monde de l’éducation et les gouvernements, eux, sont au courant.

Il ne s’agit plus ici de simplement dire que « plus d’éducation » permettrait d’éviter l’obsolescence d’une partie de la force de travail (« convertir des cols bleus en cols blancs »). Les modules de Watson montrent que les employés de bureau sont maintenant dans le collimateur de l’intelligence artificielle.

On sait qu’être conducteur de taxis et de camions n’est pas un métier d’avenir avec la montée des véhicules autonomes, mais doit-on dire au jeune étudiant aujourd’hui de ne pas devenir directeur-conseil ou analyste? La question doit être posée.

… mieux que nous?

La valeur réelle de Watson, ainsi accessible en modules, reste à prouver. Nous verrons bien s’il est à la hauteur des attentes.

Mais ne nous contentons pas d’un rire sarcastique, si IBM n’y parvient pas. IBM n’a pas peur de se tromper (les modules sont clairement identifiés comme beta). La compagnie en retirera assurément des bénéfices.

L’approche infonuagique pour les modules permet à IBM de centraliser tous les apprentissages, y compris ceux provenant d’erreurs.

Ça ne vous rappelle pas quelque chose?

Plus on utilise Google, plus on utilise Facebook, plus ils deviennent forts, puissants et incontournables. Nous sommes ceux et celles qui avons créé ces géants qui occupent nos vies aujourd’hui.

Ce sera la même chose pour Watson.

Plus il y a aura de gens qui vont l’utiliser, plus il deviendra fort, puissant et incontournable.

Sommes-nous en train d’éduquer un géant capable de comprendre le monde mieux que nous-mêmes?

Martin LessardApprendre sur YouTube? Les robots le feront!

par

 publié le 3 février 2015 à 14 h 48

Alors qu’il y en a qui doutent encore qu’Internet puisse être une source d’apprentissage pour les jeunes, voilà de quoi peut-être leur faire changer d’avis.

robotculinaire

Hier, deux professeurs de l’Université du Maryland, un de leurs étudiants au doctorat et un chercheur diplômé de l’Université ont déposé en ligne un document de recherche sur la façon dont un robot pourrait apprendre des choses à partir de vidéos offertes librement en ligne.

Une des difficultés de la robotique réside dans la façon dont la machine acquiert de nouvelles connaissances.

Si le concepteur d’un robot devait entrer lui-même toutes les consignes pour que celui-ci se débrouille tout seul, à la moindre inconnue, le robot s’arrêterait.

Apprendre en imitant

Les lecteurs de Triplex connaissent bien la notion d’apprentissage en profondeur (deep learning), puisqu’on en a parlé ici à maintes reprises.

Le robot de demain devra apprendre à apprendre par lui-même. De nouveaux outils informatiques sont en train d’émerger pour permettre d’interpréter et d’imiter les actions humaines.

Dans l’étude mentionnée plus haut, on suggère qu’un programme est capable de traiter des vidéos en ligne pour en extraire des séquences d’actions élémentaires. Ces séquences élémentaires serviront aux robots à acquérir de nouvelles connaissances.

Les vidéos peuvent être, par exemple, des cours de plomberie, de musique ou de cuisine (ces derniers étant le domaine à l’étude dans le document).

Apprendre en regardant

En se basant sur des réseaux neuronaux, les auteurs proposent deux modules, un pour la reconnaissance visuelle de base, et un pour la classification des actions et des objets observés.

De l’ensemble des vidéos regardées émerge une « grammaire de manipulations », qui permet au robot d’apprendre l’enchaînement des gestes pour arriver à ses fins.

2

Les premiers tests montrent que cette approche donne de très bons résultats. On aura peut-être un jour une tout autre image de ce qu’est un « robot culinaire ».

YouTube, l’école des robots

Insistons ici pour souligner de nouveau que les vidéos utilisées dans ces tests proviennent du web et n’ont pas été conçues pour les besoins de la démonstration.

En tout, les chercheurs ont utilisé 88 vidéos de cuisines provenant de YouTube. De cet ensemble, 12 vidéos ont subi un traitement particulier (mise à niveaux de gris, annotations image par image des objets à l’écran) pour permettre au programme d’apprendre les mouvements et les objets fondamentaux.

Fort de cet apprentissage de base, le programme était capable ensuite de comprendre par lui-même les autres vidéos (objets manipulés, ingrédients, position de la main, action à faire, force à appliquer) avec des taux de reconnaissance qui variaient de 79 % à 91 %.

1

Leurs résultats montrent que ce système est très robuste pour créer des arbres de décision ad hoc en fonction de vidéos qui montrent de nouvelles recettes.

La promesse des « robots de service domestique » n’est pas encore réalisée : il reste encore à associer ce système d’apprentissage à des mécanismes de manipulation physique. Et à faire monter le degré de reconnaissance plus près de 100 %.

Toutefois, on voit bien qu’un pas vient d’être franchi pour qu’un robot devienne, comme les jeunes, accro à YouTube.

Et, dans son cas à lui, c’est bien pour apprendre!

Pour en savoir plus:

Document de recherche (en anglais): Robot Learning Manipulation Action Plans by “Watching” Unconstrained Videos from the World Wide Web (PDF). Les images de ce billet viennent de ce document. Sauf la première, en forme clin d’oeil, qui est de moi.

Triplex : L’apprentissage neuronal pour structurer le monde

Triplex : Se faire remplacer par un iPad?

Martin LessardLe point sur la communication cerveau à cerveau (2/2)

par

 publié le 29 octobre 2014 à 15 h 19

Dans la première partie, hier, je recensais les derniers exploits dans le domaine des neurosciences, en particulier sur le plan de la communication cerveau à cerveau.

Si les expériences de télépathie assistée par ordinateur sont encore embryonnaires — et entre vous et moi, on est encore loin d’avoir démontré leur entière pertinence — on peut bien songer à quelques applications d’une telle communication directe avec le cerveau dans un avenir proche.

Libérez ce cerveau

Imaginez que vous êtes Kate Allat, une femme qui a été 10 jours dans le coma en 2010, selon un article publié la semaine dernièreMort cérébrale, avaient diagnostiqué les médecins.

katemailonline

Pourtant, durant tout ce temps, raconte-t-elle, elle a tout entendu.

Ne pouvant ni bouger ni communiquer avec son entourage, elle a entendu tout ce qui a été dit autour d’elle, y compris quand les médecins discutaient de la possibilité de la débrancher.

Puis elle s’est réveillée de son coma.

Est-ce qu’un outil de communication direct avec son cerveau lui aurait permis de communiquer avec l’extérieur de sa prison cérébrale?

L’interface cerveau machine

Un tel outil, qui n’est plus l’idée malade d’un savant fou, mais bien une réalité, pourrait notamment être utilisé pour entrer en contact avec des patients qui ne peuvent plus communiquer, notamment ceux atteints de paralysie totale ou du syndrome d’enfermement.

Récemment, on a testé une interface cerveau-machine capable de capturer des ondes cérébrales très précises. Cette interface permettre au cerveau d’un patient paralysé de communiquer directement avec une machine.

Devant lui, on a déposé un clavier. On lui a demandé de se concentrer sur une lettre du clavier.

Une série de petits flashs lumineux sont apparus sur les touches du clavier. On a observé un stimulus cérébral précis quand ce flash a touché la lettre sur laquelle le patient se concentrait.

Son cerveau avait réagi automatiquement en générant une onde d’une amplitude plus grande que les autres (le P300, qui survient à 300 ms après l’apparition du stimulus).

En capturant ce signal sur l’encéphalogramme, l’ordinateur comprend que le « doigt mental vient de taper sur le clavier« .

Le patient peut ainsi construire petit à petit un message vers le monde extérieur.

Le langage du cerveau

Les lecteurs de Triplex savent que deux initiatives vont, dans la prochaine décennie, tenter de cartographier le cerveau et de le simuler sous forme d’algorithmes. Une en Europe (Human Brain Project) et une aux États-Unis (BRAIN initiative). C’est un chantier aussi gros que la cartographie de l’ADN, il y a 20 ans,

À la fin du mois de septembre, pour fêter le premier anniversaire du BRAIN initiative, les Américains ont invité un étudiant chercheur de la Duke University à venir expliquer en quoi allaient consister ses recherches dans le cadre du Grand Challenge Scholars Program, un programme destiné à soutenir les ingénieurs qui recherchent des solutions aux grands défis scientifiques (dont la « rétro-ingénierie du cerveau« ).

Il a dit qu’il comptait travailler au développement d’un langage commun entre le cerveau et les machines, afin qu’ils puissent mieux communiquer ensemble

L’étudiant chercheur côtoie le Dr Miguel Nicolelis, qui travaille sur le projet Walk Again.

Walk Again est un exosquelette entièrement contrôlé par le cerveau. Il a permis à un adolescent paralysé de donner le coup d’envoi à un match de soccer au Brésil durant la Coupe du monde au printemps dernier.

BIA_EXO_HELMET-300x168

Les projets d’un peu partout convergent, lentement mais sûrement, vers une compréhension de plus en plus grande du cerveau humain.

Tous les exemples à ce jour sont encore anecdotiques ou alors spécifiques à un handicap particulier. Mais ils montrent tous que la communication directe avec le cerveau est possible.

Observez bien ce qui se passe autour de vous. Toutes ces têtes aux cerveaux emprisonnés. Se pourrait-il que ce soit comme ça que les gens du futur nous perçoivent un jour?

Martin LessardLe point sur la communication cerveau à cerveau (1/2)

par

 publié le 28 octobre 2014 à 12 h 15

Tout d’un coup, l’expression B2B ne veut plus dire Business to business (« commerce électronique interentreprises »), mais Brain to brain (« cerveau à cerveau »).

Il y a deux participants, un en Inde, et l’autre en France. Ils vont se transmettre de cerveau à cerveau des messages simples, soit « hola » et « ciao ».

C’est l’expérience qui a été réalisée par des chercheurs de la Faculté de médecine de Harvard, de l’Université de Barcelone, de la firme espagnole Starlab et de la société française Axilum Robotics.

Publiée à la mi-août par la revue scientifique américaine PLOS one, l’expérience montrait concrètement comment effectuer une transmission consciente d’information de cerveau à cerveau, en utilisant des technologies non invasives :

  1.  Le sujet en Inde, l’émetteur, portait un casque connecté à des électrodes sur la tête, qui transmettaient ses activités cérébrales.
  2. Un ordinateur a converti ces impulsions en code binaire.
  3. Ce message a été envoyé par courriel à l’équipe de recherche en France.
  4. Un ordinateur a converti sous forme de phosphènes, des flashs lumineux recréés par la rétine, générés par stimulation magnétique transcrânienne.
  5. Le deuxième sujet, le récepteur en France, a reçu et décodé le message

Améliorez chacune des étapes (encodage, transmission, décodage) et vous voyez tout le potentiel que cette expérience offre. La télépathie par Internet, car c’est ce dont il s’agit, n’est plus du domaine de la science-fiction.

Désenclaver le cerveau

Déjà en 2012, une femme tétraplégique avait réussi à contrôler un bras robotisé par la pensée.

Quand on demandait à la femme de 52 ans, Jan Scheuermann, de penser à son membre inactif, les chercheurs voyaient à travers un scanner quelle partie du cerveau s’activait.

Un algorithme interprétait ensuite les décharges neuronales dans son cerveau comme des commandes pour faire bouger le bras mécanique, celui qui était connecté au bout de ces microélectrodes plantées dans son cerveau. (Lire sur Triplex à propos cette expérience)

Puis, en 2013, autre avancée!

Des chercheurs de l’Université de Washington ont réussi à faire connecter deux cerveaux humains.

L’émetteur portait un casque qui analysait son activité cérébrale. Il jouait à un jeu vidéo où il devait tirer sur un objet avec un canon. Il devait penser qu’il bougeait son doigt, mais sans le bouger du tout.

La machine qui enregistrait l’électroencéphalogramme a envoyé le résultat, à l’autre bout du campus, au récepteur qui portait un stimulateur magnétique transcrânien.

Ce stimulateur a donné l’impulsion au récepteur d’appuyer sur le bouton, alors que lui-même ne voyait pas le jeu vidéo.

Le récepteur, lui, a simplement ressenti un tic nerveux, et son doigt a bougé tout seul.

Comment envoyer un message dans un cerveau

_________journal.pone.0105225.g001

Dans l’expérience annoncée cet été, la télépathie par Internet, l’émetteur et le récepteur, séparés par des milliers de kilomètres, se sont envoyé un message encodé.

Pour encoder le message « hola », l’émetteur avait le choix entre deux pensées distinctes, soit « bouger les pieds » ou « bouger les mains », chacune produisant une onde cérébrale différente.

En utilisant l’électroencéphalogramme du sujet émetteur, l’équipe de recherche située en Inde a d’abord converti les ondes cérébrales en code binaire.

L’onde cérébrale des pieds a été traduite en 0, et celle des mains en 1. Le message ainsi codé a été envoyé par courriel à l’équipe située en France.

Ce message codé en bits a alors été transmis au receveur par une transmission magnétique transcrânienne (TMS) qui générait des phosphènes.

Un phosphène est la sensation bizarre de voir des flashs lumineux quand on ferme très fort les yeux. Aucune lumière ne vient toucher la rétine et, pourtant, on perçoit de la lumière. C’est notre cerveau qui « crée » la lumière. Le TMS génère artificiellement ces phosphènes.

Du point de vue du récepteur, si aucun phosphène n’apparaissait, la valeur était de 0. Si un phosphène apparaissait, la valeur était de 1. Cette lumière apparaissait dans le cerveau du receveur en séquences numériques, ce qui lui permettait de décoder le message à la façon d’un code morse.

Communiquer directement avec le cerveau

Actuellement, côté réception, c’est grâce à un robot conçu par cette société française, Axilum Robotics, qu’on peut d’obtenir une précision dans la transmission du message par stimulation magnétique transcrânienne.

Dans l’état actuel des choses, cette preuve de concept montre la faisabilité de la communication entre deux cerveaux. Mais dans le cas d’Axilum Robotics, ce type de télépathie assistée par ordinateur n’est pas le but.

Selon l’entreprise, un tel moyen de transmission de messages devrait plutôt permettre de communiquer avec des personnes paralysées, par exemple, après un accident vasculaire cérébral (AVC) et qui auraient perdu l’usage de la parole.

Ce qui est plus probable de voir se développer dans un proche avenir, au lieu de la télépathie assistée par ordinateur, c’est davantage les interfaces directes entre un ordinateur et un cerveau humain.

Demain, nous verrons ce qui se profile dans l’application de ces technologies de communication directe avec le cerveau.