Billets classés sous la catégorie « Robotique »

Martin LessardSe faire remplacer par un iPad?

par

 publié le 24 juillet 2014 à 15 h 28

La Ville de San Francisco souhaite augmenter le salaire minimum à 15 $ d’ici juillet 2018. Un lobby de l’industrie de la restauration s’est empressé de répondre.

Un grand panneau publicitaire jaune dans le centre de San Francisco a fait son apparition la semaine dernière, montrant un iPad avec ce texte en surplomb : « Sanfranciscains, voici ce qui vous remplacera si le salaire minimum augmente. »

Sur l’iPad est écrit : « Bonjour, je suis prêt à prendre votre commande. »

« Avec un salaire minimum à 15 $, les employés seront remplacés par des options automatisées moins coûteuses », peut-on lire sur le côté. Et c’est signé Bad Idea CA (California), un site qui dénonce l’augmentation en brandissant la menace des pertes d’emplois massives.

sanfranciscojpg

Je laisserai aux économistes indépendants compétents, comme Ianik Marcil, le soin de nous dire si une augmentation du salaire minimum entraînerait automatiquement la catastrophe annoncée sur le site.

Voyons de notre côté si cette menace tient la route.

Le mythe

Ce type d’annonce joue sur l’ambiguïté du mot « smart device » (ambiguïté encore plus flagrante en français quand on le traduit maladroitement par « outil intelligent »).

C’est profiter d’une vision naïve du public moyen qui ne comprend plus vraiment où la technologie finit et où la magie commence.

L’informatique est le domaine de l’automatisation des processus et de la simplification des problèmes. Un programme a besoin d’un contexte connu et prévisible. Ce n’est pas pour rien qu’on emploie des expressions comme « routines » ou « sous-routines » pour qualifier des parties d’un programme.

L’informatique a besoin d’un monde entièrement modélisé pour fonctionner. S’il y a bien un domaine où modéliser entièrement tous les processus ne serait pas facilement rentable, c’est bien le service à la clientèle d’un restaurant.

Vous pouvez bien offrir un iPad au lieu d’un menu pour que les gens choisissent leur repas, mais il vous faudra toujours bien quelqu’un pour vous l’apporter, pour prendre en compte la petite variation (« Ne mettez pas de gluten, sinon je vais aller directement à l’hôpital! ») ou pour nettoyer la table ensuite.

L’employé, celui au salaire minimum, reste encore la ressource la plus efficiente pour prendre en compte, à moindre coût, le chaos d’une salle à manger. Et je ne parle même pas du travail en cuisine.

Aujourd’hui, faire entrer un iPad à la place d’un employé entraîne une restructuration logistique qui dépasse probablement les moyens de bien des restaurants.

Mais la question reste : est-ce tout de même une menace qui pend au bout du nez des travailleurs?

La réalité

Sur le grand panneau publicitaire, l’iPad sert de métaphore (ou de catachrèse, plus précisément), car on étend la signification de l’objet (somme toute inoffensive) à celle de la domination de la machine sur l’homme.

Il est maintenant vrai que l’automatisation ne touche plus seulement les emplois les moins qualifiés. La technologie numérique excelle dans tout ce qui est routinier et qui demande de suivre des règles. Elle touche maintenant des emplois nécessitant de hautes compétences cognitives.

Au Tech Open Air à Berlin la semaine dernière, on parlait très sérieusement de la montée des robots-journalistes.

Une étude d’économistes dans le New York Times le mois dernier montre que le nombre d’emplois nécessitant de fortes compétences cognitives, en augmentation jusqu’en 2000, s’est brutalement effondré ensuite.

tableau

Les lecteurs de Triplex savent que plusieurs emplois du futur sont dans la mire des machines. Ils savent aussi que les promesses de l’intelligence artificielle, grâce aux avancées récentes du deep learning, l’apprentissage en profondeur, proposent d’automatiser de nombreuses tâches que l’on croyait réservées aux humains.

Allons-nous nous retrouver pris entre les deux? C’est-à-dire allons-nous être évacués des tâches trop manuelles et répétitives en même temps que des tâches spécialisées qui demandent des compétences cognitives de haut niveau?

Ce message sur le panneau publicitaire à San Francisco, aussi risible qu’il puisse être, est un artefact d’une mutation accélérée du monde du travail touché par les avancées du numérique. C’est un signe précurseur que l’augmentation exponentielle de la puissance des ordinateurs aujourd’hui met à risque des métiers « potentiellement automatisables » demain. Paradoxalement, je ne crois pas que ça soit dans le domaine de la restauration.

En fait, cet iPad cache la forêt de machines qui veulent nos emplois dans les autres domaines. Si les promesses de la robotisation rejoignent celles de l’intelligence artificielle, il y aura lieu, effectivement, de s’inquiéter. Déjà, des postes où le jugement humain n’est plus nécessaire sont à risque (par exemple les conducteurs de véhicules au long cours avec l’arrivée des voitures autonomes).

Les avancées technologiques offrent aussi de nouvelles possibilités. Mais la perspective de produire plus avec moins de travailleurs n’est pas à la veille de disparaître.

La question est alors de savoir si l’équilibre entre les emplois appelés à disparaître et les emplois appelés à apparaître sera toujours présent demain.

En écho au billet de Nadia sur les « smart guns », je pose la question : y a-t-il de la place pour l’éthique quand il s’agit de programmer des algorithmes?

La Marine américaine a récemment offert une subvention de 7,5 millions de dollars sur 5 ans à des chercheurs universitaires pour explorer les façons de donner un certain « sens moral » aux robots autonomes de demain.

Des « robots létaux autonomes » existent déjà, mais ils sont plutôt semi-autonomes quand il s’agit de prendre la décision de tirer ou non sur un humain.

Les « lois de la guerre »  impliquent des règles et des règles, ça se programme. Cette question éthique découle d’un problème de responsabilité juridique : « Si un robot tue un humain, qui est le responsable? »

warfare

Un débat a eu lieu à Genève la semaine dernière, dans le cadre d’une rencontre de l’ONU sur les armes de guerre. Même encore hypothétique, l’avènement des « robots-tueurs » doit être balisé pour éviter de se retrouver sans code éthique comme avec les drones.

Mais les militaires ne pensent pas nécessairement à des « robots-tueurs » quand ils explorent l’aspect moral dans les programmes informatiques.

Il faut savoir que les algorithmes sont partout et qu’ils prennent de plus en plus de décisions.

Par exemple, un logiciel militaire pourrait être amené à gérer l’évacuation de blessés. Qui va-t-on évacuer en premier? Qui va-t-on traiter en premier? Y a-t-il une pondération à faire entre civils et militaires, entre soldats et gradés, entre amis ou ennemis?

C’est donc les choix moraux de ceux qui vont implanter le programme dans le robot qui vont être exécutés par la machine.

Un débat technoéthique qui dépasse largement le domaine militaire

Il y aura des voitures autonomes sur nos routes dans un avenir prévisible.

S’il arrive un incident imprévu, est-ce que la voiture autonome aura à faire un choix éthique entre vous sauver la vie ou celles des malheureux piétons sur le côté de la route?

Cette question est une question classique de morale : elle est connue sous le nom de Dilemme du tramway.

Elle pourrait se résumer ainsi : si par un malheureux hasard, le véhicule autonome doit choisir entre :

A) s’écraser sur un mur et tuer tous les passagers du véhicule?
B) ou rouler sur le trottoir et écraser des piétons?

Que doit-on privilégier, A ou B?

1024px-Car_crash_1

Cette (pénible) question théorique rencontrera bientôt des questions pratiques très concrètes.

À quoi pensiez-vous durant tout ce temps?

Il y a une différence entre laisser faire quelque chose (A : s’écraser contre un mur) et tuer volontairement (B : rouler sur le trottoir). Le véhicule se dirigeait déjà vers le mur, alors pourquoi changer le cours des choses?

Ce qu’il faut comprendre, ici, c’est que souvent, dans ce genre de situation, un conducteur humain n’a qu’une fraction de seconde pour choisir A ou B. On peut lui pardonner son choix.

Mais une machine, elle, en une milliseconde, elle a le temps de calculer toutes les possibilités!

Le logiciel de la voiture autonome n’aura pas conscience de prendre une décision morale, il va simplement suivre les instructions, une hiérarchie de décisions faite lors de l’encodage par les programmeurs.

Si on changeait la voiture contre un autobus bondé de jeunes enfants et qu’on ne mettait qu’une seule personne sur le trottoir, est-ce qu’on changerait d’avis? Est-ce que les journaux du lendemain de l’accident ne vont pas accuser le constructeur si le programme laisse tous les enfants mourir?

Le programme de la voiture autonome a vu tout venir : un tel drame routier se joue en moins d’une seconde, temps très court pour nous, humains, mais tout de même long pour un processeur.

Durant ce temps, un processeur peut facilement avoir 200 millions de cycles (d’instructions élémentaires par seconde). À l’échelle humaine, à titre simplement comparatif, posons qu’un seul de ces cycles prenne 0,1 milliseconde de notre temps (temps infiniment plus court qu’un réflexe humain évalué à 200 millisecondes): cela fait tout de même presque 5 heures et demie!

C’est amplement suffisant pour passer à travers un arbre de décisions et choisir la conclusion fatidique.

C’est dans ce « temps numérique » que pourraient s’insérer demain des décisions éthiques aux conséquences très concrètes. Y aura-t-il une hiérarchie différente pour les voitures de luxe ou selon les quartiers? Qui décidera de la pondération?

Et vous, accepteriez-vous un supplément pour que le fabricant de votre voiture autonome vous programme la solution B?

Martin LessardLa technologie 2014 vue d’Hollywood

par

 publié le 7 février 2014 à 10 h 49

Hollywood, ça n’aura échappé à personne, fonctionne comme le vecteur principal par lequel sont diffusés des « idéaux » (l’hétérosexualité et la famille, l’amour et la romance, le capitalisme et le libéralisme, l’individualité et l’éthique religieuse, etc.), idéaux auxquels il faut se conformer. Pensez aux histoires de Disney (comme Maleficent, qui sortira cette année).

bataille

En science-fiction, Hollywood prépare les esprits en nous présentant un futur où la technologie est omniprésente. Tous ces Transformers, Iron man et autres superhéros ne sont rien sans l’immense pouvoir que leur procure la technologie, pouvoir qui aurait été, en d’autres temps, ceux de la magie.

Mais quand les scénaristes sont moins fantaisistes, les technologies utilisées dans les histoires à l’écran sont alors des projections dans le futur de leur potentiel aujourd’hui.

À chaque époque son fantasme du futur.

Alors, quelles sont les promesses technologiques qui ont attiré l’attention d’Hollywood en 2014?

Les histoires de nos futurs

En 2002, Rapport minoritaire (Minority report) a présenté des technologies qui sont désormais à portée de main (voiture autonome, interface cinétique, etc.). J’avais écrit en 2011 que le Rapport minoritaire n’était plus une fiction.

En 2014, plusieurs nouveaux longs-métrages vont aborder la technologie, chacun à sa façon.

En ce moment, sur les écrans, il y a Her, de Spike Jonze, qui aborde les conséquences d’une intelligence artificielle qui a réussi allègrement le test de Turing et joue à devenir notre amie (et même plus).

Pour ce billet, je vais m’attarder sur trois films qui vont sortir dans les prochains mois.

1) Téléchargez votre cerveau! (Transcendence, avec Jonny Depp)

Ce film raconte l’histoire d’un scientifique qui, sur le point de mourir, télécharge son esprit dans un ordinateur.

Cette idée de téléchargement de l’esprit (où chaque synapse est convertie en un bit), quoique tout à fait hypothétique, est devenue plausible comme sujet de conversation depuis l’an passé.

L’Europe veut recréer un cerveau humain à l’intérieur d’un supercalculateur, et les États-Unis ont aussi lancé le grand chantier de cartographie du cerveau.

À la mi-janvier, un superordinateur japonais a réussi à parfaitement cartographier 1 seconde de 1 % de l’activité du cerveau humain… en 40 minutes.

Sachant que, grosso modo, la puissance brute de calcul augmente tous les deux ans, il faudra une vingtaine d’années pour s’approcher de la parité entre l’activité cérébrale et sa cartographie en temps réel.

Mais de la cartographie au téléchargement de notre cerveau, il y a encore un gouffre!

2) La conquête spatiale est relancée (Interstellar, de Christopher Nolan)

Ce film raconte l’histoire d’explorateurs spatiaux qui partent dans les étoiles grâce à des trous de vers, ces failles dans l’espace-temps qui permettent de passer d’un lieu à l’autre.

Les trous de vers sont des théories non validées, et les voyages interstellaires vont se buter aux distances incommensurables pour encore très longtemps.

Mais la reconquête spatiale redevient au goût du jour grâce aux nouveaux arrivants — l’Inde, la Chine — ainsi qu’à l’entreprise privée.

Les Chinois ont envoyé un module sur la Lune en janvier. L’Inde aura son satellite en orbite autour de Mars. La Station spatiale internationale est approvisionnée régulièrement par une navette commerciale. Des compagnies cherchent à créer des mines sur des astéroïdes.

Une téléréalité a même proposé d’envoyer quatre humains sur Mars (sans espoir de retour). Deux cent mille personnes se sont proposées pour le poste.

Notre retour dans l’espace est tout à fait réalisable, et même inévitable. Après un hiatus d’une trentaine d’années (après le programme Apollo), l’odyssée de l’espace va pouvoir continuer avec les prochains « coureurs des bois ».

3) Les exosquelettes (Edge of tomorrow, avec Tom Cruise)

Un soldat qui combat des extraterrestres se retrouve dans une boucle temporelle et il en profite pour améliorer ses performances guerrières (notamment grâce à un l’exosquelette).

Si le voyage dans le temps est encore du ressort de la science-fiction, l’exosquelette du soldat n’est, par contre, plus une chimère pour très longtemps. L’armée américaine est sur le coup.

L’exosquelette est cette armature externe qui assiste tout le corps pour amplifier les mouvements d’une personne. L’usage militaire peut faire peur (« Tu n’es pas un soldat, tu es une arme », dit-on au soldat), mais au Japon, pays à la population vieillissante, ces exosquelettes vont plutôt aider les personnes à autonomie réduite à se mouvoir.

2014, cuvée intéressante?

Arthur C. Clarke, l’auteur de 2001, l’odyssée de l’espace, a dit une fois : « Toute technologie très avancée ressemble à s’y méprendre à de la magie. »

En règle générale, Hollywood traite la technologie comme de la magie. C’est le cas des autres films de 2014 comme Divergent (l’immersion dans le monde virtuel) ou Earth to echo et Jupiter ascending (contact avec des extraterrestres).

L’année 2014 ne nous donnera pas un film comme Rapport minoritaire, qui était une véritable carte routière des innovations à venir. Mais certaines des questions abordées cette année par Hollywood sont, assurément, tout à fait dans l’air du temps.

Le « deep learning » représente le Graal de l’Internet des objets et des médias sociaux. Le rêve de l’ordinateur intelligent : prévoir et assister. Nous prévoir et nous assister.

« L’apprentissage par représentations profondes », traduction suggérée par le spécialiste québécois de la question, Yoshua Bengio, dans l’émission Le code Chastenay cette semaine, représente bien tous les espoirs que l’on met dans l’intelligence artificielle.

pointeur

Cette promesse est un vieux rêve qui remonte à Turing dans les années 50. La cybernétique a toujours dit que nous arriverions à converser intelligemment avec un ordinateur, avec des mots de tous les jours. Ce n’est pas aussi simple, finalement.

Regardez cette courte vidéo, assez étrange merci, où deux programmes (chatbots) se parlent.

Mais depuis quelques années, un second souffle remet l’intelligence artificielle (AI) à l’avant-scène. L’alignement des astres technologiques (réseaux, mobiles, « Big Data ») entre en conjoncture avec la montée en puissance des ordinateurs et un marché de plusieurs milliards de dollars. L’AI sort des laboratoires et se retrouve sur les réseaux.

Avec la montée fulgurante des médias sociaux dans la dernière décennie et la déferlante des objets connectés annoncée pour la prochaine, il y a un corpus de contenus à interpréter proprement astronomique, qui peut alimenter en continu des algorithmes qui n’attendent que ça pour s’améliorer.

L’apprentissage par représentations profondes a été identifié en 2013 par le MIT comme une  avancée technologique majeure.

Est-ce que les ordinateurs peuvent avoir des images mentales?

picpixle

Le postulat initial, qui ne date pas d’hier, suppose qu’un ensemble de noeuds connectés en réseau peut simuler la façon dont le cerveau apprend par lui-même.

Par essais et erreurs, à force de répétition, un patron de connexions entre noeuds finit par émerger pour représenter des abstractions.

Cette approche a fait ses débuts en reconnaissance d’images (voir images.google.com) et en reconnaissance vocale (voir Siri d’Apple).

Contrairement à Minsky des années 80, on insiste moins pour dire que les ordinateur pensent, mais que les ordinateurs arrivent à interpréter (« Expliquer ce qui a un sens caché »).

Interpréter la main qui nous nourrit

picpixle2

Or l’interprétation que l’on souhaite obtenir d’un ordinateur ne peut découler que du fait qu’on l’alimente avec des milliers et de milliers de cas. Ensuite, et ensuite seulement, il peut faire des prédictions et nous assister.

Watson d’IBM, qui a battu les hommes au jeu de l’émission Jeopardy, est devenu l’assistant des médecins en ingurgitant des milliers et des milliers de dossiers de patients. Mais c’est très coûteux en temps et en argent.

Quoi de mieux alors que posséder des millions de bénévoles dans le monde entier pour aider à nourrir la machine? Google est de cet avis. Facebook aussi.

« Hello, HAL. Do you read me, HAL? »

L’acquisition de Deep Mind par Google cette semaine, (voir mon dernier billet), et l’embauche de Yann LeCun en décembre à la tête du laboratoire d’intelligence artificielle de Facebook ne sont que les plus récents signaux que la course à l’apprentissage par représentations profondes est lancée.

Google et Facebook, en s’assurant ainsi la présence de très bons chercheurs dans leur équipe (dans un domaine où le groupe des spécialistes mondiaux tiendrait probablement dans un seul wagon de train) veulent être présents dans ce domaine prometteur.

Se profile alors à l’horizon un espace de collaboration entre l’homme et la machine basée, entre autres, sur le langage naturel et une offre de service proposant la prédiction de nos actions et de nos désirs.

Reste à voir à quoi tout cela ressemblera vraiment. Il y a loin de la coupe aux lèvres.

Mais, déjà, l’ordinateur sait distinguer et conceptualiser une coupe et des lèvres…

Martin LessardL’apprentissage neuronal pour structurer le monde

par

 publié le 27 janvier 2014 à 16 h 07

On a appris cette fin de semaine l’acquisition de DeepMind par Google, une firme spécialisée en intelligence artificielle, pour la somme  d’environ 1 demi-milliard de dollars selon Re/code et The Information.

Google confirme ainsi sa volonté de maîtriser une expertise bien précise en intelligence artificielle, le « deep learning« , l’apprentissage en profondeur.

Ce néologisme recouvre toutes les recherches avancées en réseaux neuronaux artificiels qui permettent aux algorithmes d’autoapprendre en se créant des niveaux d’abstraction conceptuels de haut niveau.

En clair, ce nouveau champ des sciences informatiques cherche à bâtir des machines capables de traiter les données de la même façon que le ferait notre cerveau.

DeepMind n’est pas nécessairement reconnu comme la meilleure de son domaine, mais elle est forte de plusieurs dizaines de chercheurs de haut calibre. Et Google en a aussi profité pour retirer le tapis sous les pieds de Facebook qui tentait d’acquérir l’entreprise en démarrage britannique.

Virage majeur

Google, Facebook, Microsoft, Yahoo, IBM et tous les géants de la techno semblent se lancer dans une course pour acquérir une expertise en apprentissage en profondeur.

Notre environnement, du point de vue des algorithmes informatiques, est un gigantesque magma chaotique de données non structurées.

Si, en imitant le cerveau (qui s’accommode très bien d’un « environnement de données non structurées »), la machine devient capable d’apprendre à se diriger et à interpréter notre monde, les occasions sont gigantesques.

Pour Google, qui vient d’acquérir Nest et Boston Dynamics, voilà une façon de relier les points de son plan pour « organiser les informations à l’échelle mondiale », et ce, à un niveau encore inimaginable.

L’acquisition de DeepMind n’est qu’un signe que la course est enclenchée dans cette ruée vers le « cerveau électronique » (si une telle expression peut avoir un sens).

Source: wikipedia

En ce moment, le géant chinois Baidu possède son propre laboratoire de recherche consacré à l’apprentissage en profondeur. Microsoft cherche à recruter des chercheurs en « informatique biologique » (biological computation) ayant une expertise en immunologie et en neuroscience. Au Japon, des chercheurs sont en train de construire des robots qui utilisent des réseaux de neurones artificiels. L’Europe souhaite recréer un cerveau humain à l’intérieur d’un supercalculateur. Obama a aussi lancé le grand chantier de cartographie du cerveau.

Un des groupes les plus avancés dans le domaine, le programme de recherche sur le calcul neuronal et la perception adaptative, créé en 2004, relève de l’Institut canadien de recherche avancée (ICRA). Il regroupe les plus éminents penseurs du monde dans le domaine.

Ses membres sont convaincus que, quelque part dans notre cerveau, se cache le secret de l’incroyable pouvoir d’interprétation de nos neurones, capables de créer un modèle cohérent du monde.

Ça me rappelle la course à la bombe atomique où le premier qui trouve la bonne formule domine le monde.

Éthique informatique

Signe des temps, Google a annoncé la création d’un comité éthique.

L’acquisition de Nest et de Boston Dynamics avait suscité une telle inquiétude quant au dérapage potentiel d’une firme pouvant recouper autant d’information sur nous, que cette fois-ci, avec DeepMind, Google veut rassurer le public en affirmant que les algorithmes ne seront pas utilisés à mauvais escient.

« Don’t be evil », ne fais pas le mal, telle est sa devise. La tentation est plus forte que jamais.

Autres billets sur Triplex

À la conquête du cerveau (octobre 2013)

Interface neuronale : les machines comme extensions de notre cerveau (décembre 2012)

Lire les pensées de Hawking (juillet 2012)

IBM et les « ordinateurs cognitifs » (août 2011)