Billets classés sous la catégorie « Robotique »

Vous avez peut-être vu, la semaine dernière, circuler cette nouvelle : « Un travailleur allemand tué par un robot » (Business Insider)

Avec un tel choix de titre, il n’est pas surprenant que cette nouvelle ait circulé, et ce, pour au moins trois raisons.

Voyons en premier pourquoi, et ensuite nuançons.

1. L’impression qu’une prédiction maléfique se réalise

Le pouvoir évocateur du titre réveille en nous les peurs instillées par tous les films de science-fiction catastrophiques.

Ne prenons que Terminator, série cinématographique qui illustre le futur glauque des humains en combat contre les machines. Terminator est le Frankenstein des temps modernes. Quand on parle d’un robot qui tue, c’est lui qu’on a en tête.

Et on clique aussitôt sur le bouton « partage » parce qu’on est profondément convaincu que la nouvelle confirme la prédiction, ou du moins, donne un indice que les robots ne nous veulent pas que du bien

2. La synchronicité apporte un supplément de sens

La synchronicité est un concept en psychologie analytique développé par Jung qui donne à croire que deux événements non reliés ont en fait un lien secret.

Ici, deux événements, l’un tragique, l’autre cinématographique, se renforcent mutuellement. L’annonce de la mort du pauvre travailleur coïncidait avec la sortie film Terminator Genisys, ce qui représente, par synchronicité, un mauvais augure.

On est prompt à faire un lien de causalité là où il n’y en a pas. Les deux événements ne sont ici reliés que le temps de cliquer sur « partager ».

En d’autres mots, pas de phénomène viral sans moment propice.

3. Le hasard n’est jamais un hasard

Si on cherchait une raison supplémentaire qui expliquerait la circulation de cette nouvelle, la voici :

C’est le tweet de Sarah O’Connor qui a enflammé les réseaux.

sarahoconnor

Il faut savoir que Sarah O’Connor, journaliste au Financial Times à Londres, porte presque le même nom que l’héroïne du film Terminator  Sarah Connor (sans le O’). L’héroïne est censée sauver l’humanité de la machine.

L’ironie, ici, c’est que c’est avec le tweet de Sarah O’Connor, la journaliste, que nombre de gens ont appris la nouvelle qu’un « robot avait tué un travailleur ». Comme si elle était le personnage et annonçait le début des hostilités!

Ce qui montre qu’on peut aussi avoir de l’humour en ces temps sombres. Et que c’est amplement une bonne raison pour propager la nouvelle, question de rigoler.

Monsieur le Juge, je plaide l’automatisation!

Mais voilà! Le robot en question dans la nouvelle de la mort du travailleur était en fait un bras robotisé.

Autrement dit, il s’agissait de machinerie lourde. Ce bras était programmé pour faire des tâches dans une chaîne d’assemblage de voitures. De plus, l’accident malheureux a été attribué à une erreur humaine, et non à la machine.

Et sans cette intention de tuer de la part d’une machine, l’histoire tombe un peu à plat.

Si le titre avait été « Un travailleur meurt à la suite d’un accident de travail », on n’en aurait jamais entendu parler.

Ce n’est peut-être pas la réalité de la nouvelle qui suscite l’intérêt ici, mais la métaphore du robot tueur.

Et si, au fond, le robot représentait l’automatisation, et le travailleur, lui, tous les travailleurs?

Dans un colloque à Aix-en-Provence organisé par le Cercle des économistes la fin de semaine dernière, cette question était en filigrane. Des vidéos sont accessibles pour écouter les reprises.

Cela fait 200 ans que la technologie « détruit » des emplois et en « crée » de nouveaux (la fameuse « destruction créative » de Schumpeter). Mais cette fois-ci, c’est peut-être différent, pense-t-on.

Regardez Uber. Son arrivée a automatisé toute l’industrie du taxi.

C’est le GPS qui guide le chauffeur de taxi, et c’est l’application qui le met en lien avec le client et gère sa facturation.

Et ce, en attendant que les voitures se conduisent toutes seules.

Si on ne parle pas de la mort d’un travailleur, ici, il s’agit quand même de la destruction des perspectives d’emploi de tout un pan de l’industrie du transport!

Il y a un Uber dans le poulailler

Les lecteurs de Triplex savent depuis longtemps que cette douloureuse transition s’en vient.

Certains annoncent, dans les pronostics les plus sombres, évidemment, que jusqu’à 50 % des métiers seront à risque de disparaître au cours des 20 prochaines années.

Le travail répétitif, routinier, dans un environnement stable est assurément dans le collimateur de l’automatisation. Col bleu, col blanc, peu importe : il ne fait pas bon d’être sur le chemin de l’automatisation.

Certes, de nouveaux besoins créeront de nouveaux emplois, mais la grande question est de savoir si cette transition engendrera des pertes ou des gains nets d’emplois.

Au colloque à Aix-en-Provence, la question a été débattue dans une des conférences. On se demandait comment « remettre la finance au service du travail ».

Avec un clin d’oeil, on aurait pu titrer « Comment mettre le renard au service du poulailler ». La nouvelle sur le colloque aurait davantage circulé!

En effet, du point de vue du « renard », pour qu’il y ait un « poulailler », il ne faut pas que les « poules » deviennent obsolètes.

Mais voyez-vous, en fait, c’est une partie des métiers de la finance qui sont aussi menacés d’automatisation.

Exemple :
Automatisation du processus de clôture financière et comptable

Gestion de justification

Dans le fond, le « renard » comme les « poules » cherchent à se prémunir de l’obsolescence.

Le travail, c’est la santé. Mais se faire enlever le premier par un robot, même s’il ne tue personne, a de quoi vous faire perdre le second.

Martin LessardLa machine bat les humains dans des tests de QI

par

 publié le 19 juin 2015 à 15 h 22

La recherche en apprentissage de représentations profondes (deep learning) vient de marquer un point de plus.

Des chercheurs chinois ont annoncé avoir conçu un programme capable de battre les humains au fameux test de quotient intellectuel (QI).

« Notre modélisation rejoint le niveau d’intelligence de quelqu’un entre le bac et la maîtrise. »

Dur, dur pour l’ego.

La nouvelle a eu des échos du côté des médias anglophones (surtout depuis l’écho qui en a été fait par le célèbre MIT), mais moins ou pas du tout du côté francophone.

Expliquons d’abord l’expérience avant de revenir sur ce silence des médias francophones.

Mensa en silicium

Source : document de recherche sur arxiv.org

Source : document de recherche sur arxiv.org

Les tests de QI sont extrêmement formatés.

La structure des questions est identique dans une même catégorie et la réponse se fait toujours selon un choix de réponses multiples.

Exemple :

Isotherme est à la température ce que isobare est ? (i) à l’atmosphère (ii) au vent (iii) à la pression (iv) à la latitude (v) au courant.

Une fois repérée la structure de la question, les chercheurs ont optimisé leurs différents algorithmes pour qu’ils trouvent la bonne réponse selon la catégorie.

L’apprentissage de représentations profondes fonctionne grâce un accès à une quantité massive de données où l’algorithme finit par trouver des relations statistiques sous-jacentes aux mots.

Comme un mot a plusieurs sens, l’ordinateur doit déduire à partir du seul contexte lequel privilégier pour répondre correctement à la question. D’où l’importance de reconnaître dans quelle catégorie se trouve la question. La relation entre les mots est pondérée différemment selon les catégories.

En optimisant d’avance les algorithmes selon les catégories de questions, cela montre toutefois que l’intelligence artificielle (IA) a été grandement aidée. Obtenir la bonne réponse sans cette aide est plus difficile.

En effet, il n’y a pas d’algorithme universel en apprentissage de représentations profondes pour tous les défis. Ce qui marche pour la traduction automatique de la parole ne marche pas pour reconnaître le contenu d’une image ni pour répondre aux questions d’un test de QI.

Autrement dit, question de bien mettre en perspective de cette nouvelle, les chercheurs ont optimisé la machine pour précisément battre les humains aux jeux des tests de QI. Et rien d’autre.

C’est donc une machine spécialisée qui nous a battus. Et je ne suis pas sûr qu’il faille s’en offusquer outre mesure.

Définir l’intelligence?

Ce que les chercheurs ont montré, c’est qu’une fois de plus, l’apprentissage de représentations profondes démontre bien sa force pour automatiser une partie de l’activité intellectuelle que l’on croyait jusqu’alors réservée aux humains.

Évidemment, nous humains, à chaque avancée de la science, nous devons nous retrancher dans une zone de plus en plus étroite pour définir ce qui nous rend intelligents.

En fait, nous semblons définir notre intelligence par la négative en fonction des succès de l’IA.

L’intelligence, ce n’est pas maîtriser les mathématiques (l’ordinateur le fait mieux). Ce n’est pas maîtriser les connaissances générales non plus (Watson est meilleur). Alors, qu’est-ce que c’est?

Les tests de QI se voulaient un outil pour mesurer l’intelligence. Maintenant que les machines nous battent sur ce terrain, je parie que nous allons définitivement les sortir de la liste des mesures efficaces pour mesurer notre intelligence.

Les tests de QI mis KO par l’IA

Que les tests de QI soient définitivement mis au rancart par l’IA ne fera pleurer personne.

Voilà plusieurs décennies que des professeurs contestent la qualité de cet outil comme « mesure de l’intelligence ».

L’idée même qu’on puisse placer l’intelligence humaine sur une échelle linéaire (les points QI) cachait en fait la complexité même de ce qu’on cherchait à mesurer.

Les médias anglophones sont peut-être moins sensibles à l’approche humaniste présente dans la tradition journalistique francophone. Voilà pourquoi les premiers ont peut-être sauté sur l’occasion pour annoncer une nouvelle défaite de l’intelligence humaine, alors que les seconds se sont gardé une petite gêne.

En effet, l’humain étant la mesure de toute chose, une certaine tradition humaniste ne peut accepter que l’humain soit réifié, c’est-à-dire transformé en chose, et comparé banalement au reste.

Une approche plus matérialiste, assez présente dans le monde anglo-saxon, s’en accommode plutôt bien.

Quoi qu’il en soit, si la prouesse du deep learning n’est pas du tout remise en cause, il n’en va pas de même avec les tests de QI.

Ces tests ont longtemps servi à valider des interprétations douteuses en comparant les habiletés intellectuelles entre des groupes, des peuples, des « races », des genres et des classes sociales.

Maintenant qu’on a réussi à nous montrer que nous serions tous des cancres dans les tests de QI face à la montée toute puissante des algorithmes, nous pouvons peut-être passer à autre chose…

Martin LessardDétecteur de piétons en option

par

 publié le 27 mai 2015 à 14 h 33

Un blogue de la République dominicaine a rendu publique cette vidéo où l’on voit une voiture autonome (la Volvo XC60) foncer tout à coup sur des personnes.

Rassurez-vous, ces gens ont surtout été blessés dans leur orgueil, car ils s’en sont sortis avec quelques bosses sur le corps seulement et des égratignures sur leurs cellulaires.

Ce qui s’est réellement passé

Évidemment, on pense tout de suite à ces films de science-fiction dans lesquels la machine se révolte contre l’homme.

La voiture, comme animée d’une impulsion folle et tel un animal sauvage, s’attaque aux piétons devant elle. Il n’en faut pas plus pour nous faire dresser les cheveux sur la tête.

Mais ce qui nous fait vraiment peur ici, c’est la véritable raison de l’accident.

Selon un représentant de Volvo, le module de détection des piétons est offert en option sur cette voiture. Et il n’était pas installé sur celle-ci.

Car voyez-vous, il en coûte 3000 $ de plus pour l’équiper de cet élément optionnel.

Si vous vouliez savoir ce que vaut votre vie, piétons, voilà le chiffre!

La révolte des voitures intelligentes n’est pas pour demain

Ce qui est triste à dire, c’est que dans ce cas-ci, ce sont les humains qui ne brillaient pas par leur intelligence. En fait, il faut savoir deux choses :

1- Volvo ne recommande pas de faire un test avec de vrais humains comme obstacle.

2- L’idée de faire un test de détection d’obstacle sans le module de détection des piétons n’est pas très brillante.

Si on s’en tenait à ces deux points, on pourrait (peut-être) se sentir rassurés. Sauf que :

3- Si l’on doit se fier au bon vouloir des consommateurs pour acheter les modules de sécurité proposés en option par les constructeurs automobiles, ce n’est pas demain la veille qu’on adoptera des voitures autonomes sur la route.

Nous, humains, passons des examens de conduite pour nous assurer que nous avons le minimum requis pour prendre la route.

Il semble évident maintenant que les voitures devraient elles aussi passer cet examen, question de nous prouver qu’elles ont le maximum requis pour prendre la route.

Catherine MathysGoogle, Woody Allen et vous

par

 publié le 8 avril 2015 à 13 h 41

Si les robots ne sont pas encore parmi nous, c’est à prévoir dans un avenir rapproché. D’ailleurs, Google semble s’y préparer de plus en plus sérieusement. La semaine dernière, l’entreprise a déposé un nouveau brevet qui a pour but d’attribuer une personnalité à un robot ou à un ordinateur. Oui, vous avez bien lu. Google veut aider les machines qui vous entourent à mieux s’entendre avec vous en téléchargeant une personnalité comme on télécharge une application.

Un robot qui vous comprend

Un robot (ou un ordinateur) pourrait donc avoir des personnalités multiples pour mieux s’adapter à ses divers utilisateurs.

Chaque personnalité robotique serait évolutive. Les événements du quotidien seraient compilés dans la mémoire du robot, et sa personnalité pourrait donc être modifiée selon ces derniers.

Il serait même possible de créer une banque de personnalités et de les télécharger sur un ou plusieurs robots à la fois. En d’autres termes, on pourrait cloner la personnalité de ce robot pour ne pas perdre toutes les données accumulées. C’est un peu comme quand on garde une carte SIM en changeant de téléphone, sauf qu’ici tout serait accessible dans le nuage de Google.

woody

Là où ça commence à faire un peu peur, c’est ici : le brevet mentionne que la personnalité en question pourrait reproduire celle du propriétaire de l’appareil, ou encore celle d’un proche mort ou d’une vedette. Le robot pourrait donc devenir névrotique comme Woody Allen, si on le souhaite. Ce n’est pas mon exemple, c’est le document de Google qui le dit!

Ce n’est qu’un début

C’était probablement la suite logique des choses. On sait que les robots feront partie de notre quotidien un jour, alors autant raffiner leurs interactions avec nous.

Google s’intéresse à la robotique depuis plusieurs années. Elle a d’ailleurs acheté plusieurs entreprises récemment, dont Boston Dynamics ou encore Bot & Dolly. Cela dit, en ce qui concerne la personnalité des robots, il ne s’agit que d’un brevet pour le moment. Il n’y a donc aucune garantie que Google vise la commercialisation d’un produit avec le processus qu’il y détaille.

Pour l’instant, on semble plus proche de faire notre jogging avec le chien robotisé Spot que de jaser avec Woody Allen dans notre salon.

 

Cette nouvelle est à la jonction des neurosciences et de la biotechnologie, mais on pourrait aussi bien penser que c’est de la science-fiction.

Grâce à un article publié la semaine dernière dans la revue Interface de la prestigieuse institution britannique Royal Society, la science nous montre comment brancher et contrôler à distance une coquerelle (aussi appelée blatte).

cyborgcoquerelle

Avec une puce électronique et une petite batterie au lithium collées sur le dos d’une coquerelle, et des fils branchés sur son système nerveux, il est possible de diriger l’insecte où l’on veut.

C’est en quelque sorte une coquerelle cyborg télécommandée.

En lui ajoutant une caméra miniature ou un micro, précisent les chercheurs, elle devient une sonde pour accéder aux endroits inaccessibles, par exemple pour une fouille après un effondrement de bâtiment.

Toutefois, n’anticipons pas trop. Ce n’est encore qu’un prototype. Les chercheurs n’arrivent à contrôler l’orientation de la coquerelle que dans 60 à 70 % des cas.  Il y a donc encore place à l’amélioration. C’est la façon dont ils se prennent qui est originale.

Contrôlée de l’intérieur

La puce envoie des signaux grâce à deux fils. Ceux-ci sont branchés directement sur les nerfs qui contrôlent les pattes de l’insecte, de chaque côté.

Il faut savoir que les coquerelles ont trois pattes de chaque côté, qui avancent de façon synchronisée.

En envoyant une impulsion électrique sur la patte du milieu, on désynchronise le pas. Selon le côté où l’on envoie la décharge, la désynchronisation des pas fait tourner l’insecte d’un bord ou de l’autre.

Les chercheurs vont tenter d’expérimenter pour contrôler davantage de pattes et augmenter la performance de l’insecte.

Si cette façon de faire est originale, contrôler une coquerelle à distance n’a rien de nouveau. À ce propos, nous sommes déjà au-delà de la science-fiction. Voilà déjà une quinzaine d’années que l’on sait comment contrôler les coquerelles par la technologie.

RoboRoach, une coquerelle à votre service

L’ancienne technique consistait à stimuler les antennes des coquerelles pour leur faire croire qu’elles frappaient un obstacle —on les trompait par rapport à leur environnement pour les faire dévier.

Cette technique est relativement simple et, si vous le voulez, vous pouvez vous-même l’essayer. Oui, oui.

Il existe des ensembles en vente sur Internet pour contrôler votre propre coquerelle avec la méthode de stimulation des antennes.

roboroach-ficge

Ça s’appelle RobotRoach. C’est un ensemble conçu pour les cours de sciences à l’école. RobotRoach est le résultat d’une campagne de sociofinancement menée sur Kickstarter en 2013.

On colle la puce sur le dos de la coquerelle (vendue séparément, en paquet de 12. Eh oui!), on lui colle les antennes et on sort son téléphone portable pour la contrôler. Les signaux sont envoyés aux antennes pour simuler un obstacle et la faire dévier.

Le problème avec cette approche, c’est qu’avec le temps, les coquerelles finissent par ignorer les signaux —elles ne sont pas folles, elles voient bien que leurs antennes les trompent.

Que fait-on des coquerelles qui ont découvert l’astuce? Le site suggère de les mettre à la retraite –bien méritée dans leur cas– afin qu’elles se reproduisent et vous procurent d’autres cobayes, tout plein d’autres cobayes! (Qui a dit qu’être scientifique ne demandait pas d’avoir des nerfs d’acier?)

La nouvelle technique est plus durable, mais soulève des questions éthiques

Avec la nouvelle approche, celle où l’on se branche directement sur le système nerveux de l’insecte, on contrôle la coquerelle de l’intérieur.

Ce n’est pas elle qui interprète un signal, c’est le signal qui lui dicte quoi faire (en fait, c’est une patte sur trois qui reçoit l’impulsion).

La science est capable de pirater le système nerveux des insectes —et aussi des êtres plus gros, comme le rat.

En piratant leur système nerveux, on fabrique des marionnettes vivantes, contrôlées par une télécommande.

On pourrait argumenter que la coquerelle ne fait pas partie des êtres vivants qui méritent notre compassion.

Mon petit doigt me dit qu’il y a des questions qui semblent triviales au début (débattre des droits des blattes), mais qui sont le point de départ d’un chemin qui mène à de plus sérieuses questions.

Si vous avez vu le film La matrice, vous aurez un petit frisson. Aujourd’hui, c’est la coquerelle. Demain, qui sait?

On est encore bien loin de La matrice – ça, ça restera toujours de la science-fiction, à mon avis–, mais on avance assurément dans cette direction.

Je ne sais pas si le libre arbitre existe chez la coquerelle. Je sais, en tout cas, qu’elle risque demain d’obéir au nôtre.