Billets classés sous la catégorie « Robotique »

Martin LessardWatson à notre service (ou serait-ce l’inverse?)

par

 publié le 6 février 2015 à 17 h 15

IBM a annoncé cette semaine qu’elle venait d’ajouter cinq nouveaux modules de services pour accéder à la puissance de Watson.

Watson est ce superordinateur qui avait battu les champions du monde à Jeopardy. Il s’était montré supérieur à simuler la connaissance générale, démontrant par là même que des compétences cognitives, que l’on croyait réservées aux humains, peuvent aussi être partagées par la machine.

Watson ne cherche pas à rester un champion de Jeopardy. Il veut devenir le partenaire incontournable des entreprises. Voici ces cinq nouveaux modules offerts en ligne qui permettent de mettre Watson à votre service.

New-services-e1422814890751

Deux de ces services ajoutés concernent la transposition automatique de la voix au texte (et vice-versa). Vous proposez des enregistrements (en anglais) et Watson vous retourne des textes, et l’inverse.

Le troisième module concerne la reconnaissance visuelle (analyse du contenu d’une image). Vous proposez un JPEG et Watson va vous en révéler son contenu (sous forme de probabilités).

Les deux derniers modules m’ont particulièrement intéressé. Ils sont révélateurs, à mon avis, du type de défis que pose l’intelligence artificielle sur le marché du travail.

  • Concept Insight: Ce module explore les liens conceptuels cachés dans la masse d’information ingurgitée par Watson, au-delà de la simple comparaison de textes mot à mot.
  • Tradeoff Analytics: Ce module permet de prendre des décisions en temps réel basées sur des paramètres statiques ou évolutifs, afin de définir des solutions de rechange optimales dans la prise de décision.

On parle ici d’aide à la décision.

Comprendre le monde…

Ces cinq modules s’ajoutent aux huit autres déjà offerts, dont deux qui permettaient de modéliser un utilisateur pour en extraire ses préférences et son niveau de langage, afin qu’un message puisse mieux « résonner » auprès de sa cible.

Je ne sais pas pour vous, mais la plupart de ces modules simulent des compétences qui me semblent être celles qu’on accorde généralement à des directeurs, des conseillers ou des analystes, dans des domaines comme le marketing, la publicité ou le service à la clientèle.

Les lecteurs de Triplex sont bien au courant des avancées des technologies qui auront des conséquences sur la société de demain et le marché du travail en particulier.

Je me demande si le monde de l’éducation et les gouvernements, eux, sont au courant.

Il ne s’agit plus ici de simplement dire que « plus d’éducation » permettrait d’éviter l’obsolescence d’une partie de la force de travail (« convertir des cols bleus en cols blancs »). Les modules de Watson montrent que les employés de bureau sont maintenant dans le collimateur de l’intelligence artificielle.

On sait qu’être conducteur de taxis et de camions n’est pas un métier d’avenir avec la montée des véhicules autonomes, mais doit-on dire au jeune étudiant aujourd’hui de ne pas devenir directeur-conseil ou analyste? La question doit être posée.

… mieux que nous?

La valeur réelle de Watson, ainsi accessible en modules, reste à prouver. Nous verrons bien s’il est à la hauteur des attentes.

Mais ne nous contentons pas d’un rire sarcastique, si IBM n’y parvient pas. IBM n’a pas peur de se tromper (les modules sont clairement identifiés comme beta). La compagnie en retirera assurément des bénéfices.

L’approche infonuagique pour les modules permet à IBM de centraliser tous les apprentissages, y compris ceux provenant d’erreurs.

Ça ne vous rappelle pas quelque chose?

Plus on utilise Google, plus on utilise Facebook, plus ils deviennent forts, puissants et incontournables. Nous sommes ceux et celles qui avons créé ces géants qui occupent nos vies aujourd’hui.

Ce sera la même chose pour Watson.

Plus il y a aura de gens qui vont l’utiliser, plus il deviendra fort, puissant et incontournable.

Sommes-nous en train d’éduquer un géant capable de comprendre le monde mieux que nous-mêmes?

Martin LessardApprendre sur YouTube? Les robots le feront!

par

 publié le 3 février 2015 à 14 h 48

Alors qu’il y en a qui doutent encore qu’Internet puisse être une source d’apprentissage pour les jeunes, voilà de quoi peut-être leur faire changer d’avis.

robotculinaire

Hier, deux professeurs de l’Université du Maryland, un de leurs étudiants au doctorat et un chercheur diplômé de l’Université ont déposé en ligne un document de recherche sur la façon dont un robot pourrait apprendre des choses à partir de vidéos offertes librement en ligne.

Une des difficultés de la robotique réside dans la façon dont la machine acquiert de nouvelles connaissances.

Si le concepteur d’un robot devait entrer lui-même toutes les consignes pour que celui-ci se débrouille tout seul, à la moindre inconnue, le robot s’arrêterait.

Apprendre en imitant

Les lecteurs de Triplex connaissent bien la notion d’apprentissage en profondeur (deep learning), puisqu’on en a parlé ici à maintes reprises.

Le robot de demain devra apprendre à apprendre par lui-même. De nouveaux outils informatiques sont en train d’émerger pour permettre d’interpréter et d’imiter les actions humaines.

Dans l’étude mentionnée plus haut, on suggère qu’un programme est capable de traiter des vidéos en ligne pour en extraire des séquences d’actions élémentaires. Ces séquences élémentaires serviront aux robots à acquérir de nouvelles connaissances.

Les vidéos peuvent être, par exemple, des cours de plomberie, de musique ou de cuisine (ces derniers étant le domaine à l’étude dans le document).

Apprendre en regardant

En se basant sur des réseaux neuronaux, les auteurs proposent deux modules, un pour la reconnaissance visuelle de base, et un pour la classification des actions et des objets observés.

De l’ensemble des vidéos regardées émerge une « grammaire de manipulations », qui permet au robot d’apprendre l’enchaînement des gestes pour arriver à ses fins.

2

Les premiers tests montrent que cette approche donne de très bons résultats. On aura peut-être un jour une tout autre image de ce qu’est un « robot culinaire ».

YouTube, l’école des robots

Insistons ici pour souligner de nouveau que les vidéos utilisées dans ces tests proviennent du web et n’ont pas été conçues pour les besoins de la démonstration.

En tout, les chercheurs ont utilisé 88 vidéos de cuisines provenant de YouTube. De cet ensemble, 12 vidéos ont subi un traitement particulier (mise à niveaux de gris, annotations image par image des objets à l’écran) pour permettre au programme d’apprendre les mouvements et les objets fondamentaux.

Fort de cet apprentissage de base, le programme était capable ensuite de comprendre par lui-même les autres vidéos (objets manipulés, ingrédients, position de la main, action à faire, force à appliquer) avec des taux de reconnaissance qui variaient de 79 % à 91 %.

1

Leurs résultats montrent que ce système est très robuste pour créer des arbres de décision ad hoc en fonction de vidéos qui montrent de nouvelles recettes.

La promesse des « robots de service domestique » n’est pas encore réalisée : il reste encore à associer ce système d’apprentissage à des mécanismes de manipulation physique. Et à faire monter le degré de reconnaissance plus près de 100 %.

Toutefois, on voit bien qu’un pas vient d’être franchi pour qu’un robot devienne, comme les jeunes, accro à YouTube.

Et, dans son cas à lui, c’est bien pour apprendre!

Pour en savoir plus:

Document de recherche (en anglais): Robot Learning Manipulation Action Plans by “Watching” Unconstrained Videos from the World Wide Web (PDF). Les images de ce billet viennent de ce document. Sauf la première, en forme clin d’oeil, qui est de moi.

Triplex : L’apprentissage neuronal pour structurer le monde

Triplex : Se faire remplacer par un iPad?

Martin LessardLe point sur la communication cerveau à cerveau (2/2)

par

 publié le 29 octobre 2014 à 15 h 19

Dans la première partie, hier, je recensais les derniers exploits dans le domaine des neurosciences, en particulier sur le plan de la communication cerveau à cerveau.

Si les expériences de télépathie assistée par ordinateur sont encore embryonnaires — et entre vous et moi, on est encore loin d’avoir démontré leur entière pertinence — on peut bien songer à quelques applications d’une telle communication directe avec le cerveau dans un avenir proche.

Libérez ce cerveau

Imaginez que vous êtes Kate Allat, une femme qui a été 10 jours dans le coma en 2010, selon un article publié la semaine dernièreMort cérébrale, avaient diagnostiqué les médecins.

katemailonline

Pourtant, durant tout ce temps, raconte-t-elle, elle a tout entendu.

Ne pouvant ni bouger ni communiquer avec son entourage, elle a entendu tout ce qui a été dit autour d’elle, y compris quand les médecins discutaient de la possibilité de la débrancher.

Puis elle s’est réveillée de son coma.

Est-ce qu’un outil de communication direct avec son cerveau lui aurait permis de communiquer avec l’extérieur de sa prison cérébrale?

L’interface cerveau machine

Un tel outil, qui n’est plus l’idée malade d’un savant fou, mais bien une réalité, pourrait notamment être utilisé pour entrer en contact avec des patients qui ne peuvent plus communiquer, notamment ceux atteints de paralysie totale ou du syndrome d’enfermement.

Récemment, on a testé une interface cerveau-machine capable de capturer des ondes cérébrales très précises. Cette interface permettre au cerveau d’un patient paralysé de communiquer directement avec une machine.

Devant lui, on a déposé un clavier. On lui a demandé de se concentrer sur une lettre du clavier.

Une série de petits flashs lumineux sont apparus sur les touches du clavier. On a observé un stimulus cérébral précis quand ce flash a touché la lettre sur laquelle le patient se concentrait.

Son cerveau avait réagi automatiquement en générant une onde d’une amplitude plus grande que les autres (le P300, qui survient à 300 ms après l’apparition du stimulus).

En capturant ce signal sur l’encéphalogramme, l’ordinateur comprend que le « doigt mental vient de taper sur le clavier« .

Le patient peut ainsi construire petit à petit un message vers le monde extérieur.

Le langage du cerveau

Les lecteurs de Triplex savent que deux initiatives vont, dans la prochaine décennie, tenter de cartographier le cerveau et de le simuler sous forme d’algorithmes. Une en Europe (Human Brain Project) et une aux États-Unis (BRAIN initiative). C’est un chantier aussi gros que la cartographie de l’ADN, il y a 20 ans,

À la fin du mois de septembre, pour fêter le premier anniversaire du BRAIN initiative, les Américains ont invité un étudiant chercheur de la Duke University à venir expliquer en quoi allaient consister ses recherches dans le cadre du Grand Challenge Scholars Program, un programme destiné à soutenir les ingénieurs qui recherchent des solutions aux grands défis scientifiques (dont la « rétro-ingénierie du cerveau« ).

Il a dit qu’il comptait travailler au développement d’un langage commun entre le cerveau et les machines, afin qu’ils puissent mieux communiquer ensemble

L’étudiant chercheur côtoie le Dr Miguel Nicolelis, qui travaille sur le projet Walk Again.

Walk Again est un exosquelette entièrement contrôlé par le cerveau. Il a permis à un adolescent paralysé de donner le coup d’envoi à un match de soccer au Brésil durant la Coupe du monde au printemps dernier.

BIA_EXO_HELMET-300x168

Les projets d’un peu partout convergent, lentement mais sûrement, vers une compréhension de plus en plus grande du cerveau humain.

Tous les exemples à ce jour sont encore anecdotiques ou alors spécifiques à un handicap particulier. Mais ils montrent tous que la communication directe avec le cerveau est possible.

Observez bien ce qui se passe autour de vous. Toutes ces têtes aux cerveaux emprisonnés. Se pourrait-il que ce soit comme ça que les gens du futur nous perçoivent un jour?

Martin LessardLe point sur la communication cerveau à cerveau (1/2)

par

 publié le 28 octobre 2014 à 12 h 15

Tout d’un coup, l’expression B2B ne veut plus dire Business to business (« commerce électronique interentreprises »), mais Brain to brain (« cerveau à cerveau »).

Il y a deux participants, un en Inde, et l’autre en France. Ils vont se transmettre de cerveau à cerveau des messages simples, soit « hola » et « ciao ».

C’est l’expérience qui a été réalisée par des chercheurs de la Faculté de médecine de Harvard, de l’Université de Barcelone, de la firme espagnole Starlab et de la société française Axilum Robotics.

Publiée à la mi-août par la revue scientifique américaine PLOS one, l’expérience montrait concrètement comment effectuer une transmission consciente d’information de cerveau à cerveau, en utilisant des technologies non invasives :

  1.  Le sujet en Inde, l’émetteur, portait un casque connecté à des électrodes sur la tête, qui transmettaient ses activités cérébrales.
  2. Un ordinateur a converti ces impulsions en code binaire.
  3. Ce message a été envoyé par courriel à l’équipe de recherche en France.
  4. Un ordinateur a converti sous forme de phosphènes, des flashs lumineux recréés par la rétine, générés par stimulation magnétique transcrânienne.
  5. Le deuxième sujet, le récepteur en France, a reçu et décodé le message

Améliorez chacune des étapes (encodage, transmission, décodage) et vous voyez tout le potentiel que cette expérience offre. La télépathie par Internet, car c’est ce dont il s’agit, n’est plus du domaine de la science-fiction.

Désenclaver le cerveau

Déjà en 2012, une femme tétraplégique avait réussi à contrôler un bras robotisé par la pensée.

Quand on demandait à la femme de 52 ans, Jan Scheuermann, de penser à son membre inactif, les chercheurs voyaient à travers un scanner quelle partie du cerveau s’activait.

Un algorithme interprétait ensuite les décharges neuronales dans son cerveau comme des commandes pour faire bouger le bras mécanique, celui qui était connecté au bout de ces microélectrodes plantées dans son cerveau. (Lire sur Triplex à propos cette expérience)

Puis, en 2013, autre avancée!

Des chercheurs de l’Université de Washington ont réussi à faire connecter deux cerveaux humains.

L’émetteur portait un casque qui analysait son activité cérébrale. Il jouait à un jeu vidéo où il devait tirer sur un objet avec un canon. Il devait penser qu’il bougeait son doigt, mais sans le bouger du tout.

La machine qui enregistrait l’électroencéphalogramme a envoyé le résultat, à l’autre bout du campus, au récepteur qui portait un stimulateur magnétique transcrânien.

Ce stimulateur a donné l’impulsion au récepteur d’appuyer sur le bouton, alors que lui-même ne voyait pas le jeu vidéo.

Le récepteur, lui, a simplement ressenti un tic nerveux, et son doigt a bougé tout seul.

Comment envoyer un message dans un cerveau

_________journal.pone.0105225.g001

Dans l’expérience annoncée cet été, la télépathie par Internet, l’émetteur et le récepteur, séparés par des milliers de kilomètres, se sont envoyé un message encodé.

Pour encoder le message « hola », l’émetteur avait le choix entre deux pensées distinctes, soit « bouger les pieds » ou « bouger les mains », chacune produisant une onde cérébrale différente.

En utilisant l’électroencéphalogramme du sujet émetteur, l’équipe de recherche située en Inde a d’abord converti les ondes cérébrales en code binaire.

L’onde cérébrale des pieds a été traduite en 0, et celle des mains en 1. Le message ainsi codé a été envoyé par courriel à l’équipe située en France.

Ce message codé en bits a alors été transmis au receveur par une transmission magnétique transcrânienne (TMS) qui générait des phosphènes.

Un phosphène est la sensation bizarre de voir des flashs lumineux quand on ferme très fort les yeux. Aucune lumière ne vient toucher la rétine et, pourtant, on perçoit de la lumière. C’est notre cerveau qui « crée » la lumière. Le TMS génère artificiellement ces phosphènes.

Du point de vue du récepteur, si aucun phosphène n’apparaissait, la valeur était de 0. Si un phosphène apparaissait, la valeur était de 1. Cette lumière apparaissait dans le cerveau du receveur en séquences numériques, ce qui lui permettait de décoder le message à la façon d’un code morse.

Communiquer directement avec le cerveau

Actuellement, côté réception, c’est grâce à un robot conçu par cette société française, Axilum Robotics, qu’on peut d’obtenir une précision dans la transmission du message par stimulation magnétique transcrânienne.

Dans l’état actuel des choses, cette preuve de concept montre la faisabilité de la communication entre deux cerveaux. Mais dans le cas d’Axilum Robotics, ce type de télépathie assistée par ordinateur n’est pas le but.

Selon l’entreprise, un tel moyen de transmission de messages devrait plutôt permettre de communiquer avec des personnes paralysées, par exemple, après un accident vasculaire cérébral (AVC) et qui auraient perdu l’usage de la parole.

Ce qui est plus probable de voir se développer dans un proche avenir, au lieu de la télépathie assistée par ordinateur, c’est davantage les interfaces directes entre un ordinateur et un cerveau humain.

Demain, nous verrons ce qui se profile dans l’application de ces technologies de communication directe avec le cerveau.

Martin LessardFrankenstein robot

par

 publié le 2 octobre 2014 à 12 h 20

Modéliser l’œil humain et un cerveau de rat pour améliorer la performance d’un robot?

Cela pourrait révolutionner les avancées en neurosciences et en robotique, selon un article publié cette semaine dans le journal britannique Philosophical Transactions of the Royal Society B.

Les chercheurs affirment que nous sommes théoriquement en mesure de combiner la compétence inhérente des animaux à se repérer dans un environnement avec la perfection de l’oeil humain pour permettre à un robot de se déplacer de façon plus adéquate. A

utrement dit, nous pourrons fabriquer une espèce de monstre de Frankenstein avec les meilleurs morceaux tirés de modèles de plusieurs espèces.

Et deux morceaux de bio!

La plupart des systèmes de navigation robotiques emploient divers capteurs, une base de données sur le monde environnant et des algorithmes de navigation.

La méthode de navigation des êtres vivants est beaucoup plus flexible. Capable de supporter l’incertitude dans la détection et l’observation, notre cerveau modélise en permanence notre monde grâce à son cerveau habile et à ses sens aiguisés. neurone Cette nouvelle des chercheurs arrive en même temps que le premier anniversaire ce mois-ci des deux mégaprojets de recherche du cerveau, l’un américain, l’autre européen.

Les lecteurs de Triplex se rappellent que le BRAIN Initiative du président Obama et le Human Brain Project de la Commission européenne avaient la mission d’explorer, de découvrir et de comprendre le potentiel de la matière grise durant la prochaine décennie.

Cette concurrence transatlantique table sur les avancées à venir en informatique et en « Big data » pour parvenir à comprendre comment fonctionne le cerveau… et à le simuler.

Or, justement, un des succès du projet européen jusqu’à ce jour est d’avoir réussi à créer une modélisation en 3D, biologiquement réaliste, du cervelet d’un rat. Le cervelet joue un rôle important dans le contrôle moteur pour assurer la coordination, la synchronisation et la précision des mouvements.

C’est une région qui contient 50 % des neurones du cerveau, bien que sa taille ne représente que 10 % du cerveau. La mémoire spatiale du rat est très performante, mais son système de vision laisse à désirer. Or l’oeil humain est de loin supérieur. Nous avons d’excellents algorithmes pour simuler le fonctionnement de l’oeil humain.

Nous voilà rendus là. En modélisant le vivant, toutes espèces confondues, nous avons la possibilité théorique de reprendre le meilleur de chacun et d’en doter le robot du futur.

Et nous sommes seulement à 10 % du programme de recherche des deux mégaprojets sur le cerveau.