Billets classés sous la catégorie « Robotique »

En écho au billet de Nadia sur les « smart guns », je pose la question : y a-t-il de la place pour l’éthique quand il s’agit de programmer des algorithmes?

La Marine américaine a récemment offert une subvention de 7,5 millions de dollars sur 5 ans à des chercheurs universitaires pour explorer les façons de donner un certain « sens moral » aux robots autonomes de demain.

Des « robots létaux autonomes » existent déjà, mais ils sont plutôt semi-autonomes quand il s’agit de prendre la décision de tirer ou non sur un humain.

Les « lois de la guerre »  impliquent des règles et des règles, ça se programme. Cette question éthique découle d’un problème de responsabilité juridique : « Si un robot tue un humain, qui est le responsable? »

warfare

Un débat a eu lieu à Genève la semaine dernière, dans le cadre d’une rencontre de l’ONU sur les armes de guerre. Même encore hypothétique, l’avènement des « robots-tueurs » doit être balisé pour éviter de se retrouver sans code éthique comme avec les drones.

Mais les militaires ne pensent pas nécessairement à des « robots-tueurs » quand ils explorent l’aspect moral dans les programmes informatiques.

Il faut savoir que les algorithmes sont partout et qu’ils prennent de plus en plus de décisions.

Par exemple, un logiciel militaire pourrait être amené à gérer l’évacuation de blessés. Qui va-t-on évacuer en premier? Qui va-t-on traiter en premier? Y a-t-il une pondération à faire entre civils et militaires, entre soldats et gradés, entre amis ou ennemis?

C’est donc les choix moraux de ceux qui vont implanter le programme dans le robot qui vont être exécutés par la machine.

Un débat technoéthique qui dépasse largement le domaine militaire

Il y aura des voitures autonomes sur nos routes dans un avenir prévisible.

S’il arrive un incident imprévu, est-ce que la voiture autonome aura à faire un choix éthique entre vous sauver la vie ou celles des malheureux piétons sur le côté de la route?

Cette question est une question classique de morale : elle est connue sous le nom de Dilemme du tramway.

Elle pourrait se résumer ainsi : si par un malheureux hasard, le véhicule autonome doit choisir entre :

A) s’écraser sur un mur et tuer tous les passagers du véhicule?
B) ou rouler sur le trottoir et écraser des piétons?

Que doit-on privilégier, A ou B?

1024px-Car_crash_1

Cette (pénible) question théorique rencontrera bientôt des questions pratiques très concrètes.

À quoi pensiez-vous durant tout ce temps?

Il y a une différence entre laisser faire quelque chose (A : s’écraser contre un mur) et tuer volontairement (B : rouler sur le trottoir). Le véhicule se dirigeait déjà vers le mur, alors pourquoi changer le cours des choses?

Ce qu’il faut comprendre, ici, c’est que souvent, dans ce genre de situation, un conducteur humain n’a qu’une fraction de seconde pour choisir A ou B. On peut lui pardonner son choix.

Mais une machine, elle, en une milliseconde, elle a le temps de calculer toutes les possibilités!

Le logiciel de la voiture autonome n’aura pas conscience de prendre une décision morale, il va simplement suivre les instructions, une hiérarchie de décisions faite lors de l’encodage par les programmeurs.

Si on changeait la voiture contre un autobus bondé de jeunes enfants et qu’on ne mettait qu’une seule personne sur le trottoir, est-ce qu’on changerait d’avis? Est-ce que les journaux du lendemain de l’accident ne vont pas accuser le constructeur si le programme laisse tous les enfants mourir?

Le programme de la voiture autonome a vu tout venir : un tel drame routier se joue en moins d’une seconde, temps très court pour nous, humains, mais tout de même long pour un processeur.

Durant ce temps, un processeur peut facilement avoir 200 millions de cycles (d’instructions élémentaires par seconde). À l’échelle humaine, à titre simplement comparatif, posons qu’un seul de ces cycles prenne 0,1 milliseconde de notre temps (temps infiniment plus court qu’un réflexe humain évalué à 200 millisecondes): cela fait tout de même presque 5 heures et demie!

C’est amplement suffisant pour passer à travers un arbre de décisions et choisir la conclusion fatidique.

C’est dans ce « temps numérique » que pourraient s’insérer demain des décisions éthiques aux conséquences très concrètes. Y aura-t-il une hiérarchie différente pour les voitures de luxe ou selon les quartiers? Qui décidera de la pondération?

Et vous, accepteriez-vous un supplément pour que le fabricant de votre voiture autonome vous programme la solution B?

Martin LessardLa technologie 2014 vue d’Hollywood

par

 publié le 7 février 2014 à 10 h 49

Hollywood, ça n’aura échappé à personne, fonctionne comme le vecteur principal par lequel sont diffusés des « idéaux » (l’hétérosexualité et la famille, l’amour et la romance, le capitalisme et le libéralisme, l’individualité et l’éthique religieuse, etc.), idéaux auxquels il faut se conformer. Pensez aux histoires de Disney (comme Maleficent, qui sortira cette année).

bataille

En science-fiction, Hollywood prépare les esprits en nous présentant un futur où la technologie est omniprésente. Tous ces Transformers, Iron man et autres superhéros ne sont rien sans l’immense pouvoir que leur procure la technologie, pouvoir qui aurait été, en d’autres temps, ceux de la magie.

Mais quand les scénaristes sont moins fantaisistes, les technologies utilisées dans les histoires à l’écran sont alors des projections dans le futur de leur potentiel aujourd’hui.

À chaque époque son fantasme du futur.

Alors, quelles sont les promesses technologiques qui ont attiré l’attention d’Hollywood en 2014?

Les histoires de nos futurs

En 2002, Rapport minoritaire (Minority report) a présenté des technologies qui sont désormais à portée de main (voiture autonome, interface cinétique, etc.). J’avais écrit en 2011 que le Rapport minoritaire n’était plus une fiction.

En 2014, plusieurs nouveaux longs-métrages vont aborder la technologie, chacun à sa façon.

En ce moment, sur les écrans, il y a Her, de Spike Jonze, qui aborde les conséquences d’une intelligence artificielle qui a réussi allègrement le test de Turing et joue à devenir notre amie (et même plus).

Pour ce billet, je vais m’attarder sur trois films qui vont sortir dans les prochains mois.

1) Téléchargez votre cerveau! (Transcendence, avec Jonny Depp)

Ce film raconte l’histoire d’un scientifique qui, sur le point de mourir, télécharge son esprit dans un ordinateur.

Cette idée de téléchargement de l’esprit (où chaque synapse est convertie en un bit), quoique tout à fait hypothétique, est devenue plausible comme sujet de conversation depuis l’an passé.

L’Europe veut recréer un cerveau humain à l’intérieur d’un supercalculateur, et les États-Unis ont aussi lancé le grand chantier de cartographie du cerveau.

À la mi-janvier, un superordinateur japonais a réussi à parfaitement cartographier 1 seconde de 1 % de l’activité du cerveau humain… en 40 minutes.

Sachant que, grosso modo, la puissance brute de calcul augmente tous les deux ans, il faudra une vingtaine d’années pour s’approcher de la parité entre l’activité cérébrale et sa cartographie en temps réel.

Mais de la cartographie au téléchargement de notre cerveau, il y a encore un gouffre!

2) La conquête spatiale est relancée (Interstellar, de Christopher Nolan)

Ce film raconte l’histoire d’explorateurs spatiaux qui partent dans les étoiles grâce à des trous de vers, ces failles dans l’espace-temps qui permettent de passer d’un lieu à l’autre.

Les trous de vers sont des théories non validées, et les voyages interstellaires vont se buter aux distances incommensurables pour encore très longtemps.

Mais la reconquête spatiale redevient au goût du jour grâce aux nouveaux arrivants — l’Inde, la Chine — ainsi qu’à l’entreprise privée.

Les Chinois ont envoyé un module sur la Lune en janvier. L’Inde aura son satellite en orbite autour de Mars. La Station spatiale internationale est approvisionnée régulièrement par une navette commerciale. Des compagnies cherchent à créer des mines sur des astéroïdes.

Une téléréalité a même proposé d’envoyer quatre humains sur Mars (sans espoir de retour). Deux cent mille personnes se sont proposées pour le poste.

Notre retour dans l’espace est tout à fait réalisable, et même inévitable. Après un hiatus d’une trentaine d’années (après le programme Apollo), l’odyssée de l’espace va pouvoir continuer avec les prochains « coureurs des bois ».

3) Les exosquelettes (Edge of tomorrow, avec Tom Cruise)

Un soldat qui combat des extraterrestres se retrouve dans une boucle temporelle et il en profite pour améliorer ses performances guerrières (notamment grâce à un l’exosquelette).

Si le voyage dans le temps est encore du ressort de la science-fiction, l’exosquelette du soldat n’est, par contre, plus une chimère pour très longtemps. L’armée américaine est sur le coup.

L’exosquelette est cette armature externe qui assiste tout le corps pour amplifier les mouvements d’une personne. L’usage militaire peut faire peur (« Tu n’es pas un soldat, tu es une arme », dit-on au soldat), mais au Japon, pays à la population vieillissante, ces exosquelettes vont plutôt aider les personnes à autonomie réduite à se mouvoir.

2014, cuvée intéressante?

Arthur C. Clarke, l’auteur de 2001, l’odyssée de l’espace, a dit une fois : « Toute technologie très avancée ressemble à s’y méprendre à de la magie. »

En règle générale, Hollywood traite la technologie comme de la magie. C’est le cas des autres films de 2014 comme Divergent (l’immersion dans le monde virtuel) ou Earth to echo et Jupiter ascending (contact avec des extraterrestres).

L’année 2014 ne nous donnera pas un film comme Rapport minoritaire, qui était une véritable carte routière des innovations à venir. Mais certaines des questions abordées cette année par Hollywood sont, assurément, tout à fait dans l’air du temps.

Le « deep learning » représente le Graal de l’Internet des objets et des médias sociaux. Le rêve de l’ordinateur intelligent : prévoir et assister. Nous prévoir et nous assister.

« L’apprentissage par représentations profondes », traduction suggérée par le spécialiste québécois de la question, Yoshua Bengio, dans l’émission Le code Chastenay cette semaine, représente bien tous les espoirs que l’on met dans l’intelligence artificielle.

pointeur

Cette promesse est un vieux rêve qui remonte à Turing dans les années 50. La cybernétique a toujours dit que nous arriverions à converser intelligemment avec un ordinateur, avec des mots de tous les jours. Ce n’est pas aussi simple, finalement.

Regardez cette courte vidéo, assez étrange merci, où deux programmes (chatbots) se parlent.

Mais depuis quelques années, un second souffle remet l’intelligence artificielle (AI) à l’avant-scène. L’alignement des astres technologiques (réseaux, mobiles, « Big Data ») entre en conjoncture avec la montée en puissance des ordinateurs et un marché de plusieurs milliards de dollars. L’AI sort des laboratoires et se retrouve sur les réseaux.

Avec la montée fulgurante des médias sociaux dans la dernière décennie et la déferlante des objets connectés annoncée pour la prochaine, il y a un corpus de contenus à interpréter proprement astronomique, qui peut alimenter en continu des algorithmes qui n’attendent que ça pour s’améliorer.

L’apprentissage par représentations profondes a été identifié en 2013 par le MIT comme une  avancée technologique majeure.

Est-ce que les ordinateurs peuvent avoir des images mentales?

picpixle

Le postulat initial, qui ne date pas d’hier, suppose qu’un ensemble de noeuds connectés en réseau peut simuler la façon dont le cerveau apprend par lui-même.

Par essais et erreurs, à force de répétition, un patron de connexions entre noeuds finit par émerger pour représenter des abstractions.

Cette approche a fait ses débuts en reconnaissance d’images (voir images.google.com) et en reconnaissance vocale (voir Siri d’Apple).

Contrairement à Minsky des années 80, on insiste moins pour dire que les ordinateur pensent, mais que les ordinateurs arrivent à interpréter (« Expliquer ce qui a un sens caché »).

Interpréter la main qui nous nourrit

picpixle2

Or l’interprétation que l’on souhaite obtenir d’un ordinateur ne peut découler que du fait qu’on l’alimente avec des milliers et de milliers de cas. Ensuite, et ensuite seulement, il peut faire des prédictions et nous assister.

Watson d’IBM, qui a battu les hommes au jeu de l’émission Jeopardy, est devenu l’assistant des médecins en ingurgitant des milliers et des milliers de dossiers de patients. Mais c’est très coûteux en temps et en argent.

Quoi de mieux alors que posséder des millions de bénévoles dans le monde entier pour aider à nourrir la machine? Google est de cet avis. Facebook aussi.

« Hello, HAL. Do you read me, HAL? »

L’acquisition de Deep Mind par Google cette semaine, (voir mon dernier billet), et l’embauche de Yann LeCun en décembre à la tête du laboratoire d’intelligence artificielle de Facebook ne sont que les plus récents signaux que la course à l’apprentissage par représentations profondes est lancée.

Google et Facebook, en s’assurant ainsi la présence de très bons chercheurs dans leur équipe (dans un domaine où le groupe des spécialistes mondiaux tiendrait probablement dans un seul wagon de train) veulent être présents dans ce domaine prometteur.

Se profile alors à l’horizon un espace de collaboration entre l’homme et la machine basée, entre autres, sur le langage naturel et une offre de service proposant la prédiction de nos actions et de nos désirs.

Reste à voir à quoi tout cela ressemblera vraiment. Il y a loin de la coupe aux lèvres.

Mais, déjà, l’ordinateur sait distinguer et conceptualiser une coupe et des lèvres…

Martin LessardL’apprentissage neuronal pour structurer le monde

par

 publié le 27 janvier 2014 à 16 h 07

On a appris cette fin de semaine l’acquisition de DeepMind par Google, une firme spécialisée en intelligence artificielle, pour la somme  d’environ 1 demi-milliard de dollars selon Re/code et The Information.

Google confirme ainsi sa volonté de maîtriser une expertise bien précise en intelligence artificielle, le « deep learning« , l’apprentissage en profondeur.

Ce néologisme recouvre toutes les recherches avancées en réseaux neuronaux artificiels qui permettent aux algorithmes d’autoapprendre en se créant des niveaux d’abstraction conceptuels de haut niveau.

En clair, ce nouveau champ des sciences informatiques cherche à bâtir des machines capables de traiter les données de la même façon que le ferait notre cerveau.

DeepMind n’est pas nécessairement reconnu comme la meilleure de son domaine, mais elle est forte de plusieurs dizaines de chercheurs de haut calibre. Et Google en a aussi profité pour retirer le tapis sous les pieds de Facebook qui tentait d’acquérir l’entreprise en démarrage britannique.

Virage majeur

Google, Facebook, Microsoft, Yahoo, IBM et tous les géants de la techno semblent se lancer dans une course pour acquérir une expertise en apprentissage en profondeur.

Notre environnement, du point de vue des algorithmes informatiques, est un gigantesque magma chaotique de données non structurées.

Si, en imitant le cerveau (qui s’accommode très bien d’un « environnement de données non structurées »), la machine devient capable d’apprendre à se diriger et à interpréter notre monde, les occasions sont gigantesques.

Pour Google, qui vient d’acquérir Nest et Boston Dynamics, voilà une façon de relier les points de son plan pour « organiser les informations à l’échelle mondiale », et ce, à un niveau encore inimaginable.

L’acquisition de DeepMind n’est qu’un signe que la course est enclenchée dans cette ruée vers le « cerveau électronique » (si une telle expression peut avoir un sens).

Source: wikipedia

En ce moment, le géant chinois Baidu possède son propre laboratoire de recherche consacré à l’apprentissage en profondeur. Microsoft cherche à recruter des chercheurs en « informatique biologique » (biological computation) ayant une expertise en immunologie et en neuroscience. Au Japon, des chercheurs sont en train de construire des robots qui utilisent des réseaux de neurones artificiels. L’Europe souhaite recréer un cerveau humain à l’intérieur d’un supercalculateur. Obama a aussi lancé le grand chantier de cartographie du cerveau.

Un des groupes les plus avancés dans le domaine, le programme de recherche sur le calcul neuronal et la perception adaptative, créé en 2004, relève de l’Institut canadien de recherche avancée (ICRA). Il regroupe les plus éminents penseurs du monde dans le domaine.

Ses membres sont convaincus que, quelque part dans notre cerveau, se cache le secret de l’incroyable pouvoir d’interprétation de nos neurones, capables de créer un modèle cohérent du monde.

Ça me rappelle la course à la bombe atomique où le premier qui trouve la bonne formule domine le monde.

Éthique informatique

Signe des temps, Google a annoncé la création d’un comité éthique.

L’acquisition de Nest et de Boston Dynamics avait suscité une telle inquiétude quant au dérapage potentiel d’une firme pouvant recouper autant d’information sur nous, que cette fois-ci, avec DeepMind, Google veut rassurer le public en affirmant que les algorithmes ne seront pas utilisés à mauvais escient.

« Don’t be evil », ne fais pas le mal, telle est sa devise. La tentation est plus forte que jamais.

Autres billets sur Triplex

À la conquête du cerveau (octobre 2013)

Interface neuronale : les machines comme extensions de notre cerveau (décembre 2012)

Lire les pensées de Hawking (juillet 2012)

IBM et les « ordinateurs cognitifs » (août 2011)

Martin Lessard2013 : l’année du cerveau connecté

par

 publié le 31 décembre 2013 à 11 h 07

Qu’allons-nous retenir de 2013 en technologie? Le cerveau! Plus tout à fait une boîte noire, il est devenu (lentement mais sûrement) transparent, connecté et contrôlable.

Quand la meilleure technologie biologique rencontre la meilleure technologie électronique!

Photo: James Bareham

Photo: James Bareham

Deux projets ambitieux ont été lancés cette année de chaque côté de l’Atlantique (le Human Brain Project en Europe et le Brain Initiative aux États-Unis) en vue de cartographier le cerveau pour éventuellement réussir à le simuler d’ici une dizaine d’années. (voir sur Triplex : À la conquête du cerveau). La connectomique, l’étude de l’ensemble des connexions neuronales du cerveau, est sur le point de faire un grand bond en avant.

Entre-temps, les sciences du cerveau continuent leur avancée! Voici un court récapitulatif pour l’année 2013.

Sésame, ouvre-toi!

Visualiser l’ensemble de l’activité du cerveau a le même impact pour les chercheurs que pour nous de passer d’une carte routière d’une ville de banlieue à Google Earth.

En mars, dans l’image la plus impressionnante qu’on ait pu voir, des chercheurs ont réussi à capter l’activité neuronale complète du cerveau (OK, je vous l’accorde, c’était un petit poisson, mais tout de même!)

En avril, c’était au tour du cerveau d’une souris de devenir « transparent ».

En août, des chercheurs ont été capables de voir ce que lisaient des humains qui se concentraient sur une série de lettres. L’ordinateur arrive à associer l’ensemble des impulsions neuronales à des lettres précises.

brains3

On ne peut pas encore appeler ça « lire dans les pensées », mais le cerveau est un peu plus « transparent » qu’on le pense!

Interface cerveau-machine

Il y a un an, une équipe de chercheurs était parvenue à placer des microélectrodes dans le cerveau d’une personne paraplégique, afin de la relier à un ordinateur pour qu’elle puis contrôler un bras mécanique. (lire sur Triplex : Interface neuronale : les machines comme extensions de notre cerveau)

En juin cette année, des chercheurs ont réussi un exploit similaire mais différent: cette fois pour contrôler un petit hélicoptère. Notez la légèreté de l’équipement : un simple petit casque et des micro-ordinateurs. Presque à la portée de tous!

Et voyez maintenant comment cette application iPhone interprète les ondes cérébrales (via un capteur) pour savoir quand déclencher la caméra.

Le cerveau est devenu un terrain de jeu pour étudiants en neuroscience ou pour entrepreneurs techno. La conquête du cerveau s’exporte hors des laboratoires!

Les cerveaux connectés

Mais en 2013, ce qu’on va retenir le plus, c’est ceci :

En mars, des cerveaux de rats ont été reliés pour la première fois. D’un côté, on apprend à un rat par stimuli pavloviens (une lumière s’allume) à faire un choix entre 2 leviers dont l’un donne une récompense (eau). Les signaux neuronaux enregistrés sont envoyés par Internet pour stimuler le même endroit dans le cerveau de l’autre rat. S’il décode bien le signal, le premier rat reçoit une plus grande récompense.

En août, des chercheurs américains ont réussi à faire communiquer deux cerveaux humains connectés à travers Internet. L’un joue à un simple jeu vidéo et devait se concentrer, sans bouger. L’information était envoyée à un autre collègue à qui on avait mis un casque pour stimuler la région du cerveau associé au mouvement du doigt. Ce dernier appuyait sur le bouton pour jouer, sans voir l’écran.

La sensation pour la deuxième personne ressemble à un tic nerveux involontaire. Pourtant, il jouait au jeu vidéo pour la première personne.

Bien sûr, on parle ici de transfert de commandes très simples, et non de pensées. Mais une étape a été franchie, cette date passera à l’histoire.

L’humanité décodée?

2013 est la dernière année où l’on pouvait se faire encore une conception naïve du cerveau.

Une large part de ce qui nous définit sera traduite dans les prochaines années sous forme d’algorithmes. Des questions surgiront:

  • Comment définir notre « intériorité » dans un cerveau transparent?
  • Que veux dire « subjectivité » dans les transmissions de pensées?
  • « Qui » sera réellement aux commandes quand on prouvera qu’un algorithme peut nous simuler?

Il nous faudra bien faire le deuil d’une certaine notion d’intelligence (car qui dit algorithme, dit langage commun avec les machines). Il faudra bien réviser ce qui fait notre « intelligence ».

Je crois que 2013 a fait sortir le génie de la bouteille et on aura bien du mal, dans les prochaines décennies, à l’y faire retourner.

À lire sur Triplex

À la conquête du cerveau

Interface neuronale : les machines comme extensions de notre cerveau

Big Data : après le cerveau, les rêves?

Pourrons-nous visualiser nos rêves sur vidéo?

IBM et les « ordinateurs cognitifs »

Lire les pensées de Hawking