Billets classés sous la catégorie « Robotique »

Martin LessardFrankenstein robot

par

 publié le 2 octobre 2014 à 12 h 20

Modéliser l’œil humain et un cerveau de rat pour améliorer la performance d’un robot?

Cela pourrait révolutionner les avancées en neurosciences et en robotique, selon un article publié cette semaine dans le journal britannique Philosophical Transactions of the Royal Society B.

Les chercheurs affirment que nous sommes théoriquement en mesure de combiner la compétence inhérente des animaux à se repérer dans un environnement avec la perfection de l’oeil humain pour permettre à un robot de se déplacer de façon plus adéquate. A

utrement dit, nous pourrons fabriquer une espèce de monstre de Frankenstein avec les meilleurs morceaux tirés de modèles de plusieurs espèces.

Et deux morceaux de bio!

La plupart des systèmes de navigation robotiques emploient divers capteurs, une base de données sur le monde environnant et des algorithmes de navigation.

La méthode de navigation des êtres vivants est beaucoup plus flexible. Capable de supporter l’incertitude dans la détection et l’observation, notre cerveau modélise en permanence notre monde grâce à son cerveau habile et à ses sens aiguisés. neurone Cette nouvelle des chercheurs arrive en même temps que le premier anniversaire ce mois-ci des deux mégaprojets de recherche du cerveau, l’un américain, l’autre européen.

Les lecteurs de Triplex se rappellent que le BRAIN Initiative du président Obama et le Human Brain Project de la Commission européenne avaient la mission d’explorer, de découvrir et de comprendre le potentiel de la matière grise durant la prochaine décennie.

Cette concurrence transatlantique table sur les avancées à venir en informatique et en « Big data » pour parvenir à comprendre comment fonctionne le cerveau… et à le simuler.

Or, justement, un des succès du projet européen jusqu’à ce jour est d’avoir réussi à créer une modélisation en 3D, biologiquement réaliste, du cervelet d’un rat. Le cervelet joue un rôle important dans le contrôle moteur pour assurer la coordination, la synchronisation et la précision des mouvements.

C’est une région qui contient 50 % des neurones du cerveau, bien que sa taille ne représente que 10 % du cerveau. La mémoire spatiale du rat est très performante, mais son système de vision laisse à désirer. Or l’oeil humain est de loin supérieur. Nous avons d’excellents algorithmes pour simuler le fonctionnement de l’oeil humain.

Nous voilà rendus là. En modélisant le vivant, toutes espèces confondues, nous avons la possibilité théorique de reprendre le meilleur de chacun et d’en doter le robot du futur.

Et nous sommes seulement à 10 % du programme de recherche des deux mégaprojets sur le cerveau.

Martin LessardHitchbot, l’ambassadeur des robots parmi nous

par

 publié le 22 août 2014 à 12 h 15

HitchBot, le petit robot auto-stoppeur qui est parti d’Halifax, en Nouvelle-Écosse, le 27 juillet dernier est arrivé hier à Victoria, en Colombie-Britannique.

Le projet avait une mission : découvrir si les robots peuvent faire confiance… aux humains! C’est une expérience, on s’en doute, à la fois artistique, sociale et scientifique.

Pour être toutefois sûrs que Hitchbot ne se fasse pas voler et démonter en petites pièces dès les premiers instants où on le laisserait tout seul, ses constructeurs (qui connaissent bien les humains!) l’ont fabriqué dans des matériaux peu nobles.

Le robot ressemble à un gros pot de peinture avec des pattes et des bras en tube de styromousse, affublé de gants de jardinage.

hitchbot

Il est surmonté d’une tête avec un écran DEL pour afficher un petit sourire. Il possède une caméra et un micro, et est capable de soutenir une conversation de base grâce à son programme de reconnaissance vocale (son « intelligence » est tirée de Wikipédia).

Hitchbot a accès au 3G et à wifi et il a partagé son périple sur les réseaux sociaux, comme Facebook et Twitter.

On le recharge à l’aide de l’allume-cigarettes.

L’enfer, c’est nous autres

HitchBOT est une création de professeurs canadiens de l’Ontario. C’est une expérimentation sur les rapports robot-humains grâce à l’intelligence artificielle et à la reconnaissance vocale.

Comme il ne pouvait marcher, le robot devait faire de l’auto-stop. Toujours le pouce en l’air, il est déposé sur le bord de la route en espérant que des âmes charitables l’amènent à destination.

On peut penser que, plus il y avait de monde au courant de son périple, plus il avait de chances de réussir à arriver à destination, au lieu de finir dans une décharge publique.

L’intérêt de cette sympathique expérimentation tient au fait qu’aujourd’hui on fabrique des robots de plus en plus puissants pour résister à toutes sortes d’environnements, mais qu’on n’a jamais testé sa résistance à… l’environnement social humain.

Si on pense que les robots seront un jour parmi nous, il faut commencer à faire des tests maintenant et à en lâcher quelques-uns dans la nature pour voir comment la société humaine va réagir.

Il semble que la « première rencontre » se soit bien passée.

Les robots sont là

Les robots finiront par arriver dans nos vies, soyez-en sûrs. Et cette semaine, c’était le cas pour les clients de l’hôtel Aloft, à Cupertino, en Californie.

Deux robots-concierges ont maintenant pour tâche d’apporter des articles aux clients dans leur chambre.

alo

Par exemple, si un client appelle à la réception pour se faire monter une bouteille d’eau, le préposé dépose la bouteille dans le panier du robot et programme ensuite le numéro de la chambre.

Ce qui serait fait les doigts dans le nez par un jeune « Spirou » est tout de même un petit exploit pour le robot. Il doit être capable de se repérer dans l’hôtel, de prendre l’ascenseur (il communique par sans-fil pour appeler l’ascenseur et choisir l’étage) et de se rendre à la bonne porte — tout cela sans écraser qui que ce soit.

Notez en passant que ces robots-concierges n’acceptent pas de pourboire, mais aiment recevoir des tweets avec le mot-clic #MeetBotlr comme remerciement.

Ce qui est nouveau ici, ce n’est pas qu’un robot puisse se promener tout seul dans un immeuble (ce type de robots existent déjà dans certaines grosses usines ou manufactures), mais de voir ces robots passer du côté du service à la clientèle!

Les frictions à venir

Ici aussi, c’est du côté de l’acceptation sociale que se passe le vrai test (si l’expérience est concluante, la chaîne d’hôtels placera des robots dans ses 100 autres hôtels).

À Shangai, ce mois-ci, un restaurant vient d’ouvrir où des robots sont dans la cuisine pour préparer la nourriture et dans la salle pour servir les clients. Ce sera probablement davantage une attraction touristique qu’un restaurant pour bien manger, mais, tout de même, vous voyez où je veux en venir.

Le problème ne se situe pas dans le fait que nous refuserions de nous faire servir par un robot – au contraire! –, mais dans celui qu’il nous faudra vaincre cet irrépressible malaise qui nous prend à la gorge en pensant que le sympathique robot qui nous sert « vole des jobs » à de vrais humains (lire mon billet Se faire remplacer par un iPad?).

Je suis moins sûr que cela passera comme une lettre à la poste, ou pour utiliser une nouvelle métaphore, comme un « Hitchbot à travers le Canada »…

Martin LessardRobots : tous pour un, un pour tous

par

 publié le 19 août 2014 à 9 h 59

Il serait tellement plus simple de voir sortir un C3PO des laboratoires de robotique pour nous donner un aperçu de l’état d’avancement en ce domaine.

Mais nous n’y sommes pas encore. Il nous faut nous contenter d’avancements majeurs qui n’ont l’air d’absolument rien aux yeux du grand public.

Tenez, prenez cet exploit de l’Université de Harvard, qui a annoncé récemment avoir fait fonctionner le plus grand essaim de robots du monde.

Jusqu’à récemment, des robots arrivaient à se coordonner en petits groupes limités d’une douzaine de membres, parfois d’une centaine.

Cette fois, c’est plus de 1000 robots.

Le nouvel horizon de la robotique

Pour la première fois, 1024 petits robots ont formé de façon autonome des formes 2D complexes comme des étoiles ou des lettres de l’alphabet.

Les petits robots, appelés Kilobots, gros comme des balles de ping-pong, ont été choisis parce qu’ils ne coûtent pas chers à fabriquer.

Kilobots

Kilobots

Ils ont chacun un microcontrôleur intégré, des capteurs infrarouges, des transmetteurs pour communiquer et un petit moteur de vibration qui leur permettent de se déplacer tout droit ou pour tourner. Chaque robot ne peut communiquer qu’avec les autres robots à proximité immédiate.

Pour faire la forme finale désirée, on transmet d’abord à tous les robots l’image 2D. Puis on place quatre robots fixes qui servent de point de départ.

Ensuite, certains des robots commencent à se déplacer de façon autonome pour aller s’accumuler successivement afin de créer la forme en un long mouvement collectif.

OK. Il ne faut pas être pressé. Ça peut prendre environ 12 heures à ces robots pour s’assembler selon la forme prescrite.

Mais mine de rien, l’exploit, ici, c’est que les robots arrivent à avoir un comportement de groupe, comme les fourmis, alors qu’ils n’ont aucune coordination centrale. Tout l’intérêt réside dans la conception d’un algorithme capable de créer un système auto-organisé autonome.

Robots, arrangez-vous tout seuls!

Cet essaim de robots en particulier développé à Harvard n’a d’intérêt que pour cet algorithme capable de faire collaborer autant d’éléments indépendants.

Remplacez ces petits robots par des minidrones ou des voitures autonomes, et vous avez tout à coup devant vous ce qui ressemble à l’avenir de la robotique : une forme de coordination cybernétique autonome.

Kilobots

Kilobots

En fait, ces robots pourraient être de différentes grandeurs, l’algorithme n’ayant pas besoin d’être changé complètement pour autant. Exemples.

  • Petits, ils seraient utiles pour passer des câbles dans des tuyaux ou s’assembler comme des pièces de blocs LEGO.
  • Plus petits encore, à un niveau nanométrique, ils pourraient s’insérer dans le réseau vasculaire pour faire un diagnostic ou un traitement quelconque (bloquer ou débloquer une artère).
  • Plus grands, à notre échelle, ils pourraient être des drones agricoles chargés d’analyser un champ.
  • Plus grands encore, c’est tout le réseau routier, composé de ces éventuelles voitures autonomes qu’on nous promet, qui pourrait profiter de l’algorithme.

Et bien sûr, pour ceux qui ont vu la première trilogie de La guerre des étoiles, cet algorithme pourrait aussi servir à coordonner un bataillon d’éventuels robots-combattants. Et comme on sait que, de nos jours, la réalité rattrape la fiction…

Autonomes, mais grégaires

Cette expérience de Harvard est un pas dans la direction de meilleurs systèmes auto-organisés. L’algorithme doit encore beaucoup évoluer pour qu’elle puisse réellement être efficace hors laboratoire, à grande échelle.

Michael Rubenstein, le chercheur de Harvard derrière cette expérience, a dit vouloir améliorer son programme de telle sorte que chaque robot puisse agir de façon vraiment autonome. Éventuellement, ils seront capables de s’assembler dans une forme ad hoc en fonction de l’environnement sans qu’on ait à le leur dire.

Pour ceux que le sujet intéresse, le plan des Kilobots ainsi que le logiciel sont accessibles en code source libre sur le site du projet de recherche en système auto-organisé de Harvard.

Martin LessardMars 2020 : tester si on peut y respirer

par

 publié le 1 août 2014 à 12 h 34

La NASA a dévoilé hier les technologies dont sera doté le prochain véhicule d’exploration qui sera envoyé sur la planète Mars en 2020.

Ces outils confirment l’intention de la NASA d’explorer les avenues d’une éventuelle vie humaine sur Mars.

Ce genre de mission ne s’improvise pas, et c’est pourquoi le choix s’est arrêté sur des outils bien précis six ans avant le départ. J’en ai retenu deux.

Source: NASA

Source : NASA

Caméra Mastcam-Z

La première amélioration que l’on remarque par rapport aux missions précédentes, c’est du côté de la caméra.

La Mastcam-Z  sera les yeux du véhicule et pourra prendre des photos panoramiques et stéréoscopiques (3D).

Elle possède une caractéristique, celle de pouvoir zoomer, ce qui assure une meilleure planification de la route à prendre. Et ce n’est pas un luxe. La caméra actuelle sur Curiosity, arrivé sur Mars en 2012, a une résolution qui est un peu en deçà de la plupart des téléphones portables de dernières générations.

Par contre, oubliez les autoportraits (selfies) comme Curiosity l’a fait récemment, car la prochaine caméra ne semble pas avoir la bonne focale pour ça.

curiosityselfie

MOXIE

Parmi les nouvelles technologies qui seront à bord de l’engin, celle qui m’intéresse particulièrement est le module MOXIE (Mars Oxygen ISRU Experiment, où ISRU signifie In-Situ Resource Utilization)

MOXIE est un instrument qui permet de fabriquer de l’oxygène à partir du dioxyde de carbone à la surface de Mars.

Cet instrument testera la capacité de créer de l’oxygène à partir de l’atmosphère martienne dans le but non caché qu’un jour des astronautes feront de même. Sans compter que l’oxygène, avec de l’hydrogène, est utile pour fabriquer du carburant pour les fusées.

Ça y est. Nous voilà donc rendus! Cette étape permettra de vérifier hors de tout doute que nous pouvons transformer l’air de Mars en air respirable.

Pour envoyer des astronautes sur Mars, on se doute bien que c’est impensable d’y envoyer des réserves d’oxygène. Les astronautes devront se débrouiller tout seuls pour fabriquer leur oxygène et le module MOXIE est cet instrument qui va permettre de vérifier si c’est possible.

Mars, avant le débarquement

C’est un signe clair que nous sommes à la veille d’un envoi d’humains sur la planète rouge.

Avec la mission MARS 2020, la NASA va encore mieux comprendre le sol martien et son atmosphère, et je crois qu’ensuite elle sera en mesure d’annoncer une mission habitée dans un avenir prévisible.

C’est cohérent avec ce que le dirigeant de la célèbre agence spatiale avait déclaré en avril dernier: « Si l’on veut que l’espèce humaine vive longtemps, il faut accepter que nous devenions un jour une espèce multiplanètes. » Mars sera notre première escale.

L’annonce d’hier n’est donc pas seulement celle d’une autre mission d’exploration. C’est peut-être l’étape qui nous permettrait véritablement, dans une mission ultérieure, de fouler le sol de la planète rouge et d’y rester.

Martin LessardDépasser le test de Turing

par

 publié le 29 juillet 2014 à 14 h 21

L’intelligence artificielle a fait de grands bonds récemment, notamment grâce à l’apprentissage par représentations profondes (billet sur Triplex), le fameux deep learningidentifié par le MIT comme une avancée technologique majeure.

Ce domaine de recherche est en train de vouloir mieux clarifier ce qu’on entend par le mot intelligence.

Le test de Turing

turing
L’intelligence artificielle a longtemps été mesurée avec le test de Turing, proposé en 1950 par Alain Turing, un des pionniers de l’informatique.

Le test consiste à être capable de convaincre des humains, dans un échange en aveugle par écrit, qu’ils ont en face d’eux un autre humain et non pas une machine.

Récemment, un programme qui modélisait l’intelligence d’un garçon de 13 ans a réussi ce test.

Ce succès a plutôt créé un certain tollé, car il montrait davantage les limites du test de Turing. Ce test se base principalement sur une appréciation subjective des humains à se croire trompés ou non.

L’intelligence artificielle a maintenant besoin d’une mesure plus précise, selon ceux qui proposent une alternative.

Le test de Levesque

hector levesque

Cette semaine, durant la 28e conférence de l’Association pour l’avancement en intelligence artificielle (AAAI), qui se tient jusqu’à jeudi dans la ville de Québec, il a plutôt été proposé de se reporter dorénavant sur un test objectif, le test des schémas de Winograd.

La proposition originale (Winograd Schema Challenge) a été écrite par Hector Levesque, professeur en sciences informatiques à l’Université de Toronto, et gagnant du prix Excellence en recherche à la Conférence sur l’intelligence artificielle à Pékin l’an passé. Il s’est basé sur la théorie des schèmes et les travaux de Terry Winograd, professeur à Standford.

Il propose un test qui offre une bien meilleure précision sur la véritable intelligence d’une machine, selon ses supporteurs. C’est une série de questions construites de telle façon que les réponses sont évidentes pour n’importe quel humain, mais ambiguës pour une machine.

Deux exemples :

  • Les élus ont refusé aux manifestants un permis parce qu’ils [craignent/prônent] la violence. Qui est ce « ils »?

Selon le verbe sélectionné, c’est soit les élus qui craignent la violence, soit les manifestants qui prônent la violence. Un humain répond les doigts dans le nez; pour un ordinateur, ça sent la carte mère surchauffée.

  • La pendule ne pouvait pas entrer dans la valise brune, car elle était trop [grosse/petite]. Qu’est-ce qui était trop [grosse/petite]?

N’importe quel être humain serait capable de répondre correctement à cette question, car elle demande un minimum de sens commun. Pour une machine, on est sur le bord de l’écran bleu de la mort.

Bien évidemment, les tests dont on parle ici reposent entièrement sur des compétences logico-linguistiques, mâtinées de connaissances générales. L’intelligence humaine ne saurait être réduite à cette seule dimension. Mais le langage reste encore un bon moyen pour évaluer l’intelligence des humains, et c’est donc pourquoi les machines cherchent à simuler ce type de compétence pour paraître intelligentes.

Ça explique le regain d’intérêt de l’intelligence artificielle pour le traitement du langage naturel. C’est probablement le seul moyen d’humaniser nos relations avec les machines, si on croit que, dans un avenir prévisible, elles seront partout autour de nous.

Le défi

testdeturing
Le défi proposé à la conférence de Québec a un objectif précis : aider à orienter les efforts de recherche dans le but de favoriser l’éclosion de nouveaux systèmes qui repoussent les limites des capacités actuelles.

Le test est proposé par CommonsenseReasoning.org et Nuances Communications et offre 25 000 $ à ceux qui réussissent à programmer une machine capable de répondre à de telles questions.

La date limite de soumission est fixée au 1er octobre 2015. Les détails du défi sont se trouvent à cette adresse.