Billets classés sous la catégorie « Robotique »

Martin LessardLa technologie 2014 vue d’Hollywood

par

 publié le 7 février 2014 à 10 h 49

Hollywood, ça n’aura échappé à personne, fonctionne comme le vecteur principal par lequel sont diffusés des « idéaux » (l’hétérosexualité et la famille, l’amour et la romance, le capitalisme et le libéralisme, l’individualité et l’éthique religieuse, etc.), idéaux auxquels il faut se conformer. Pensez aux histoires de Disney (comme Maleficent, qui sortira cette année).

bataille

En science-fiction, Hollywood prépare les esprits en nous présentant un futur où la technologie est omniprésente. Tous ces Transformers, Iron man et autres superhéros ne sont rien sans l’immense pouvoir que leur procure la technologie, pouvoir qui aurait été, en d’autres temps, ceux de la magie.

Mais quand les scénaristes sont moins fantaisistes, les technologies utilisées dans les histoires à l’écran sont alors des projections dans le futur de leur potentiel aujourd’hui.

À chaque époque son fantasme du futur.

Alors, quelles sont les promesses technologiques qui ont attiré l’attention d’Hollywood en 2014?

Les histoires de nos futurs

En 2002, Rapport minoritaire (Minority report) a présenté des technologies qui sont désormais à portée de main (voiture autonome, interface cinétique, etc.). J’avais écrit en 2011 que le Rapport minoritaire n’était plus une fiction.

En 2014, plusieurs nouveaux longs-métrages vont aborder la technologie, chacun à sa façon.

En ce moment, sur les écrans, il y a Her, de Spike Jonze, qui aborde les conséquences d’une intelligence artificielle qui a réussi allègrement le test de Turing et joue à devenir notre amie (et même plus).

Pour ce billet, je vais m’attarder sur trois films qui vont sortir dans les prochains mois.

1) Téléchargez votre cerveau! (Transcendence, avec Jonny Depp)

Ce film raconte l’histoire d’un scientifique qui, sur le point de mourir, télécharge son esprit dans un ordinateur.

Cette idée de téléchargement de l’esprit (où chaque synapse est convertie en un bit), quoique tout à fait hypothétique, est devenue plausible comme sujet de conversation depuis l’an passé.

L’Europe veut recréer un cerveau humain à l’intérieur d’un supercalculateur, et les États-Unis ont aussi lancé le grand chantier de cartographie du cerveau.

À la mi-janvier, un superordinateur japonais a réussi à parfaitement cartographier 1 seconde de 1 % de l’activité du cerveau humain… en 40 minutes.

Sachant que, grosso modo, la puissance brute de calcul augmente tous les deux ans, il faudra une vingtaine d’années pour s’approcher de la parité entre l’activité cérébrale et sa cartographie en temps réel.

Mais de la cartographie au téléchargement de notre cerveau, il y a encore un gouffre!

2) La conquête spatiale est relancée (Interstellar, de Christopher Nolan)

Ce film raconte l’histoire d’explorateurs spatiaux qui partent dans les étoiles grâce à des trous de vers, ces failles dans l’espace-temps qui permettent de passer d’un lieu à l’autre.

Les trous de vers sont des théories non validées, et les voyages interstellaires vont se buter aux distances incommensurables pour encore très longtemps.

Mais la reconquête spatiale redevient au goût du jour grâce aux nouveaux arrivants — l’Inde, la Chine — ainsi qu’à l’entreprise privée.

Les Chinois ont envoyé un module sur la Lune en janvier. L’Inde aura son satellite en orbite autour de Mars. La Station spatiale internationale est approvisionnée régulièrement par une navette commerciale. Des compagnies cherchent à créer des mines sur des astéroïdes.

Une téléréalité a même proposé d’envoyer quatre humains sur Mars (sans espoir de retour). Deux cent mille personnes se sont proposées pour le poste.

Notre retour dans l’espace est tout à fait réalisable, et même inévitable. Après un hiatus d’une trentaine d’années (après le programme Apollo), l’odyssée de l’espace va pouvoir continuer avec les prochains « coureurs des bois ».

3) Les exosquelettes (Edge of tomorrow, avec Tom Cruise)

Un soldat qui combat des extraterrestres se retrouve dans une boucle temporelle et il en profite pour améliorer ses performances guerrières (notamment grâce à un l’exosquelette).

Si le voyage dans le temps est encore du ressort de la science-fiction, l’exosquelette du soldat n’est, par contre, plus une chimère pour très longtemps. L’armée américaine est sur le coup.

L’exosquelette est cette armature externe qui assiste tout le corps pour amplifier les mouvements d’une personne. L’usage militaire peut faire peur (« Tu n’es pas un soldat, tu es une arme », dit-on au soldat), mais au Japon, pays à la population vieillissante, ces exosquelettes vont plutôt aider les personnes à autonomie réduite à se mouvoir.

2014, cuvée intéressante?

Arthur C. Clarke, l’auteur de 2001, l’odyssée de l’espace, a dit une fois : « Toute technologie très avancée ressemble à s’y méprendre à de la magie. »

En règle générale, Hollywood traite la technologie comme de la magie. C’est le cas des autres films de 2014 comme Divergent (l’immersion dans le monde virtuel) ou Earth to echo et Jupiter ascending (contact avec des extraterrestres).

L’année 2014 ne nous donnera pas un film comme Rapport minoritaire, qui était une véritable carte routière des innovations à venir. Mais certaines des questions abordées cette année par Hollywood sont, assurément, tout à fait dans l’air du temps.

Le « deep learning » représente le Graal de l’Internet des objets et des médias sociaux. Le rêve de l’ordinateur intelligent : prévoir et assister. Nous prévoir et nous assister.

« L’apprentissage par représentations profondes », traduction suggérée par le spécialiste québécois de la question, Yoshua Bengio, dans l’émission Le code Chastenay cette semaine, représente bien tous les espoirs que l’on met dans l’intelligence artificielle.

pointeur

Cette promesse est un vieux rêve qui remonte à Turing dans les années 50. La cybernétique a toujours dit que nous arriverions à converser intelligemment avec un ordinateur, avec des mots de tous les jours. Ce n’est pas aussi simple, finalement.

Regardez cette courte vidéo, assez étrange merci, où deux programmes (chatbots) se parlent.

Mais depuis quelques années, un second souffle remet l’intelligence artificielle (AI) à l’avant-scène. L’alignement des astres technologiques (réseaux, mobiles, « Big Data ») entre en conjoncture avec la montée en puissance des ordinateurs et un marché de plusieurs milliards de dollars. L’AI sort des laboratoires et se retrouve sur les réseaux.

Avec la montée fulgurante des médias sociaux dans la dernière décennie et la déferlante des objets connectés annoncée pour la prochaine, il y a un corpus de contenus à interpréter proprement astronomique, qui peut alimenter en continu des algorithmes qui n’attendent que ça pour s’améliorer.

L’apprentissage par représentations profondes a été identifié en 2013 par le MIT comme une  avancée technologique majeure.

Est-ce que les ordinateurs peuvent avoir des images mentales?

picpixle

Le postulat initial, qui ne date pas d’hier, suppose qu’un ensemble de noeuds connectés en réseau peut simuler la façon dont le cerveau apprend par lui-même.

Par essais et erreurs, à force de répétition, un patron de connexions entre noeuds finit par émerger pour représenter des abstractions.

Cette approche a fait ses débuts en reconnaissance d’images (voir images.google.com) et en reconnaissance vocale (voir Siri d’Apple).

Contrairement à Minsky des années 80, on insiste moins pour dire que les ordinateur pensent, mais que les ordinateurs arrivent à interpréter (« Expliquer ce qui a un sens caché »).

Interpréter la main qui nous nourrit

picpixle2

Or l’interprétation que l’on souhaite obtenir d’un ordinateur ne peut découler que du fait qu’on l’alimente avec des milliers et de milliers de cas. Ensuite, et ensuite seulement, il peut faire des prédictions et nous assister.

Watson d’IBM, qui a battu les hommes au jeu de l’émission Jeopardy, est devenu l’assistant des médecins en ingurgitant des milliers et des milliers de dossiers de patients. Mais c’est très coûteux en temps et en argent.

Quoi de mieux alors que posséder des millions de bénévoles dans le monde entier pour aider à nourrir la machine? Google est de cet avis. Facebook aussi.

« Hello, HAL. Do you read me, HAL? »

L’acquisition de Deep Mind par Google cette semaine, (voir mon dernier billet), et l’embauche de Yann LeCun en décembre à la tête du laboratoire d’intelligence artificielle de Facebook ne sont que les plus récents signaux que la course à l’apprentissage par représentations profondes est lancée.

Google et Facebook, en s’assurant ainsi la présence de très bons chercheurs dans leur équipe (dans un domaine où le groupe des spécialistes mondiaux tiendrait probablement dans un seul wagon de train) veulent être présents dans ce domaine prometteur.

Se profile alors à l’horizon un espace de collaboration entre l’homme et la machine basée, entre autres, sur le langage naturel et une offre de service proposant la prédiction de nos actions et de nos désirs.

Reste à voir à quoi tout cela ressemblera vraiment. Il y a loin de la coupe aux lèvres.

Mais, déjà, l’ordinateur sait distinguer et conceptualiser une coupe et des lèvres…

Martin LessardL’apprentissage neuronal pour structurer le monde

par

 publié le 27 janvier 2014 à 16 h 07

On a appris cette fin de semaine l’acquisition de DeepMind par Google, une firme spécialisée en intelligence artificielle, pour la somme  d’environ 1 demi-milliard de dollars selon Re/code et The Information.

Google confirme ainsi sa volonté de maîtriser une expertise bien précise en intelligence artificielle, le « deep learning« , l’apprentissage en profondeur.

Ce néologisme recouvre toutes les recherches avancées en réseaux neuronaux artificiels qui permettent aux algorithmes d’autoapprendre en se créant des niveaux d’abstraction conceptuels de haut niveau.

En clair, ce nouveau champ des sciences informatiques cherche à bâtir des machines capables de traiter les données de la même façon que le ferait notre cerveau.

DeepMind n’est pas nécessairement reconnu comme la meilleure de son domaine, mais elle est forte de plusieurs dizaines de chercheurs de haut calibre. Et Google en a aussi profité pour retirer le tapis sous les pieds de Facebook qui tentait d’acquérir l’entreprise en démarrage britannique.

Virage majeur

Google, Facebook, Microsoft, Yahoo, IBM et tous les géants de la techno semblent se lancer dans une course pour acquérir une expertise en apprentissage en profondeur.

Notre environnement, du point de vue des algorithmes informatiques, est un gigantesque magma chaotique de données non structurées.

Si, en imitant le cerveau (qui s’accommode très bien d’un « environnement de données non structurées »), la machine devient capable d’apprendre à se diriger et à interpréter notre monde, les occasions sont gigantesques.

Pour Google, qui vient d’acquérir Nest et Boston Dynamics, voilà une façon de relier les points de son plan pour « organiser les informations à l’échelle mondiale », et ce, à un niveau encore inimaginable.

L’acquisition de DeepMind n’est qu’un signe que la course est enclenchée dans cette ruée vers le « cerveau électronique » (si une telle expression peut avoir un sens).

Source: wikipedia

En ce moment, le géant chinois Baidu possède son propre laboratoire de recherche consacré à l’apprentissage en profondeur. Microsoft cherche à recruter des chercheurs en « informatique biologique » (biological computation) ayant une expertise en immunologie et en neuroscience. Au Japon, des chercheurs sont en train de construire des robots qui utilisent des réseaux de neurones artificiels. L’Europe souhaite recréer un cerveau humain à l’intérieur d’un supercalculateur. Obama a aussi lancé le grand chantier de cartographie du cerveau.

Un des groupes les plus avancés dans le domaine, le programme de recherche sur le calcul neuronal et la perception adaptative, créé en 2004, relève de l’Institut canadien de recherche avancée (ICRA). Il regroupe les plus éminents penseurs du monde dans le domaine.

Ses membres sont convaincus que, quelque part dans notre cerveau, se cache le secret de l’incroyable pouvoir d’interprétation de nos neurones, capables de créer un modèle cohérent du monde.

Ça me rappelle la course à la bombe atomique où le premier qui trouve la bonne formule domine le monde.

Éthique informatique

Signe des temps, Google a annoncé la création d’un comité éthique.

L’acquisition de Nest et de Boston Dynamics avait suscité une telle inquiétude quant au dérapage potentiel d’une firme pouvant recouper autant d’information sur nous, que cette fois-ci, avec DeepMind, Google veut rassurer le public en affirmant que les algorithmes ne seront pas utilisés à mauvais escient.

« Don’t be evil », ne fais pas le mal, telle est sa devise. La tentation est plus forte que jamais.

Autres billets sur Triplex

À la conquête du cerveau (octobre 2013)

Interface neuronale : les machines comme extensions de notre cerveau (décembre 2012)

Lire les pensées de Hawking (juillet 2012)

IBM et les « ordinateurs cognitifs » (août 2011)

Martin Lessard2013 : l’année du cerveau connecté

par

 publié le 31 décembre 2013 à 11 h 07

Qu’allons-nous retenir de 2013 en technologie? Le cerveau! Plus tout à fait une boîte noire, il est devenu (lentement mais sûrement) transparent, connecté et contrôlable.

Quand la meilleure technologie biologique rencontre la meilleure technologie électronique!

Photo: James Bareham

Photo: James Bareham

Deux projets ambitieux ont été lancés cette année de chaque côté de l’Atlantique (le Human Brain Project en Europe et le Brain Initiative aux États-Unis) en vue de cartographier le cerveau pour éventuellement réussir à le simuler d’ici une dizaine d’années. (voir sur Triplex : À la conquête du cerveau). La connectomique, l’étude de l’ensemble des connexions neuronales du cerveau, est sur le point de faire un grand bond en avant.

Entre-temps, les sciences du cerveau continuent leur avancée! Voici un court récapitulatif pour l’année 2013.

Sésame, ouvre-toi!

Visualiser l’ensemble de l’activité du cerveau a le même impact pour les chercheurs que pour nous de passer d’une carte routière d’une ville de banlieue à Google Earth.

En mars, dans l’image la plus impressionnante qu’on ait pu voir, des chercheurs ont réussi à capter l’activité neuronale complète du cerveau (OK, je vous l’accorde, c’était un petit poisson, mais tout de même!)

En avril, c’était au tour du cerveau d’une souris de devenir « transparent ».

En août, des chercheurs ont été capables de voir ce que lisaient des humains qui se concentraient sur une série de lettres. L’ordinateur arrive à associer l’ensemble des impulsions neuronales à des lettres précises.

brains3

On ne peut pas encore appeler ça « lire dans les pensées », mais le cerveau est un peu plus « transparent » qu’on le pense!

Interface cerveau-machine

Il y a un an, une équipe de chercheurs était parvenue à placer des microélectrodes dans le cerveau d’une personne paraplégique, afin de la relier à un ordinateur pour qu’elle puis contrôler un bras mécanique. (lire sur Triplex : Interface neuronale : les machines comme extensions de notre cerveau)

En juin cette année, des chercheurs ont réussi un exploit similaire mais différent: cette fois pour contrôler un petit hélicoptère. Notez la légèreté de l’équipement : un simple petit casque et des micro-ordinateurs. Presque à la portée de tous!

Et voyez maintenant comment cette application iPhone interprète les ondes cérébrales (via un capteur) pour savoir quand déclencher la caméra.

Le cerveau est devenu un terrain de jeu pour étudiants en neuroscience ou pour entrepreneurs techno. La conquête du cerveau s’exporte hors des laboratoires!

Les cerveaux connectés

Mais en 2013, ce qu’on va retenir le plus, c’est ceci :

En mars, des cerveaux de rats ont été reliés pour la première fois. D’un côté, on apprend à un rat par stimuli pavloviens (une lumière s’allume) à faire un choix entre 2 leviers dont l’un donne une récompense (eau). Les signaux neuronaux enregistrés sont envoyés par Internet pour stimuler le même endroit dans le cerveau de l’autre rat. S’il décode bien le signal, le premier rat reçoit une plus grande récompense.

En août, des chercheurs américains ont réussi à faire communiquer deux cerveaux humains connectés à travers Internet. L’un joue à un simple jeu vidéo et devait se concentrer, sans bouger. L’information était envoyée à un autre collègue à qui on avait mis un casque pour stimuler la région du cerveau associé au mouvement du doigt. Ce dernier appuyait sur le bouton pour jouer, sans voir l’écran.

La sensation pour la deuxième personne ressemble à un tic nerveux involontaire. Pourtant, il jouait au jeu vidéo pour la première personne.

Bien sûr, on parle ici de transfert de commandes très simples, et non de pensées. Mais une étape a été franchie, cette date passera à l’histoire.

L’humanité décodée?

2013 est la dernière année où l’on pouvait se faire encore une conception naïve du cerveau.

Une large part de ce qui nous définit sera traduite dans les prochaines années sous forme d’algorithmes. Des questions surgiront:

  • Comment définir notre « intériorité » dans un cerveau transparent?
  • Que veux dire « subjectivité » dans les transmissions de pensées?
  • « Qui » sera réellement aux commandes quand on prouvera qu’un algorithme peut nous simuler?

Il nous faudra bien faire le deuil d’une certaine notion d’intelligence (car qui dit algorithme, dit langage commun avec les machines). Il faudra bien réviser ce qui fait notre « intelligence ».

Je crois que 2013 a fait sortir le génie de la bouteille et on aura bien du mal, dans les prochaines décennies, à l’y faire retourner.

À lire sur Triplex

À la conquête du cerveau

Interface neuronale : les machines comme extensions de notre cerveau

Big Data : après le cerveau, les rêves?

Pourrons-nous visualiser nos rêves sur vidéo?

IBM et les « ordinateurs cognitifs »

Lire les pensées de Hawking

Martin LessardCes robots à venir

par

 publié le 16 décembre 2013 à 12 h 17

On a appris vendredi que Google a acheté Boston Dynamics, une firme spécialisée en robotique. C’est la huitième compagnie en robotique que Google achète en six mois. Boston Dynamics travaillait main dans la main avec la DARPA, le bras R&D de l’armée américaine.

2807466_orig

Par contre, nous ne verrons pas de sitôt des robots dans nos rues. N’allez pas imaginer que ce sera comme dans le film de Spielberg, A.I., où des robots humanoïdes côtoient les humains dans la vie de tous les jours. Il faudra être un peu plus patient.

Voici trois robots de Boston Dynamics pour vos donner un aperçu :

Ces robots sont des merveilles de la cybernétique.

Qu’est-ce que ça signifie pour nous?

Avec sa voiture autoguidée, Google a su montrer qu’il maîtrise les paramètres, les senseurs, les données et les algorithmes pour rendre le trajet d’un véhicule de 2 tonnes sécuritaire sur nos routes. Google semble avoir une très bonne maîtrise des données environnementales pour permettre une navigation sans accroc.

Ces robots seront aussi capables de se retrouver dans un environnement changeant. Ils sont capables d’être autonomes sur un terrain accidenté. Google leur fournira la carte mentale pour qu’ils se retrouvent dans notre monde.

Il me semble que ces robots vont entrer dans la sphère publique à partir du domaine industriel, comme le transport, l’agriculture ou même le domaine médical, en fait partout où il y a un grand besoin de main-d’oeuvre de livraison ou de déplacement.

Pourquoi Google veut-il des robots?

Les paris sont lancés. Ce qu’on sait, c’est que la mission de Google est d’organiser toute l’information du monde.

Google a prouvé depuis 10 ans qu’il est capable de connecter des demandes avec les bons contenus.

Il prouve en ce moment qu’il sait suivre à la trace et guider intelligemment des millions de personnes grâce à Google Now et à Google Map sur des cellulaires Android et des lunettes Google. Avec la voiture Google, il sait même déplacer des objets.

Alors, suivre, guider et déplacer des objets autonomes, comme les robots, semble être une suite logique.

En connectant ces robots au cerveau global qu’est Google dans son ensemble, on change d’échelle. « L’internet des objets » prend tout à coup un sens tout à fait concret.

Il faudra probablement encore une décennie de développement pour commencer à voir le vrai potentiel de cette union entre Google et la robotique.

Mais les jours sont comptés. Des robots, automnes et connectés, seront parmi nous.