Billets classés sous la catégorie « Robotique »

Martin LessardLa machine bat les humains dans des tests de QI

par

 publié le 19 juin 2015 à 15 h 22

La recherche en apprentissage de représentations profondes (deep learning) vient de marquer un point de plus.

Des chercheurs chinois ont annoncé avoir conçu un programme capable de battre les humains au fameux test de quotient intellectuel (QI).

« Notre modélisation rejoint le niveau d’intelligence de quelqu’un entre le bac et la maîtrise. »

Dur, dur pour l’ego.

La nouvelle a eu des échos du côté des médias anglophones (surtout depuis l’écho qui en a été fait par le célèbre MIT), mais moins ou pas du tout du côté francophone.

Expliquons d’abord l’expérience avant de revenir sur ce silence des médias francophones.

Mensa en silicium

Source : document de recherche sur arxiv.org

Source : document de recherche sur arxiv.org

Les tests de QI sont extrêmement formatés.

La structure des questions est identique dans une même catégorie et la réponse se fait toujours selon un choix de réponses multiples.

Exemple :

Isotherme est à la température ce que isobare est ? (i) à l’atmosphère (ii) au vent (iii) à la pression (iv) à la latitude (v) au courant.

Une fois repérée la structure de la question, les chercheurs ont optimisé leurs différents algorithmes pour qu’ils trouvent la bonne réponse selon la catégorie.

L’apprentissage de représentations profondes fonctionne grâce un accès à une quantité massive de données où l’algorithme finit par trouver des relations statistiques sous-jacentes aux mots.

Comme un mot a plusieurs sens, l’ordinateur doit déduire à partir du seul contexte lequel privilégier pour répondre correctement à la question. D’où l’importance de reconnaître dans quelle catégorie se trouve la question. La relation entre les mots est pondérée différemment selon les catégories.

En optimisant d’avance les algorithmes selon les catégories de questions, cela montre toutefois que l’intelligence artificielle (IA) a été grandement aidée. Obtenir la bonne réponse sans cette aide est plus difficile.

En effet, il n’y a pas d’algorithme universel en apprentissage de représentations profondes pour tous les défis. Ce qui marche pour la traduction automatique de la parole ne marche pas pour reconnaître le contenu d’une image ni pour répondre aux questions d’un test de QI.

Autrement dit, question de bien mettre en perspective de cette nouvelle, les chercheurs ont optimisé la machine pour précisément battre les humains aux jeux des tests de QI. Et rien d’autre.

C’est donc une machine spécialisée qui nous a battus. Et je ne suis pas sûr qu’il faille s’en offusquer outre mesure.

Définir l’intelligence?

Ce que les chercheurs ont montré, c’est qu’une fois de plus, l’apprentissage de représentations profondes démontre bien sa force pour automatiser une partie de l’activité intellectuelle que l’on croyait jusqu’alors réservée aux humains.

Évidemment, nous humains, à chaque avancée de la science, nous devons nous retrancher dans une zone de plus en plus étroite pour définir ce qui nous rend intelligents.

En fait, nous semblons définir notre intelligence par la négative en fonction des succès de l’IA.

L’intelligence, ce n’est pas maîtriser les mathématiques (l’ordinateur le fait mieux). Ce n’est pas maîtriser les connaissances générales non plus (Watson est meilleur). Alors, qu’est-ce que c’est?

Les tests de QI se voulaient un outil pour mesurer l’intelligence. Maintenant que les machines nous battent sur ce terrain, je parie que nous allons définitivement les sortir de la liste des mesures efficaces pour mesurer notre intelligence.

Les tests de QI mis KO par l’IA

Que les tests de QI soient définitivement mis au rancart par l’IA ne fera pleurer personne.

Voilà plusieurs décennies que des professeurs contestent la qualité de cet outil comme « mesure de l’intelligence ».

L’idée même qu’on puisse placer l’intelligence humaine sur une échelle linéaire (les points QI) cachait en fait la complexité même de ce qu’on cherchait à mesurer.

Les médias anglophones sont peut-être moins sensibles à l’approche humaniste présente dans la tradition journalistique francophone. Voilà pourquoi les premiers ont peut-être sauté sur l’occasion pour annoncer une nouvelle défaite de l’intelligence humaine, alors que les seconds se sont gardé une petite gêne.

En effet, l’humain étant la mesure de toute chose, une certaine tradition humaniste ne peut accepter que l’humain soit réifié, c’est-à-dire transformé en chose, et comparé banalement au reste.

Une approche plus matérialiste, assez présente dans le monde anglo-saxon, s’en accommode plutôt bien.

Quoi qu’il en soit, si la prouesse du deep learning n’est pas du tout remise en cause, il n’en va pas de même avec les tests de QI.

Ces tests ont longtemps servi à valider des interprétations douteuses en comparant les habiletés intellectuelles entre des groupes, des peuples, des « races », des genres et des classes sociales.

Maintenant qu’on a réussi à nous montrer que nous serions tous des cancres dans les tests de QI face à la montée toute puissante des algorithmes, nous pouvons peut-être passer à autre chose…

Martin LessardDétecteur de piétons en option

par

 publié le 27 mai 2015 à 14 h 33

Un blogue de la République dominicaine a rendu publique cette vidéo où l’on voit une voiture autonome (la Volvo XC60) foncer tout à coup sur des personnes.

Rassurez-vous, ces gens ont surtout été blessés dans leur orgueil, car ils s’en sont sortis avec quelques bosses sur le corps seulement et des égratignures sur leurs cellulaires.

Ce qui s’est réellement passé

Évidemment, on pense tout de suite à ces films de science-fiction dans lesquels la machine se révolte contre l’homme.

La voiture, comme animée d’une impulsion folle et tel un animal sauvage, s’attaque aux piétons devant elle. Il n’en faut pas plus pour nous faire dresser les cheveux sur la tête.

Mais ce qui nous fait vraiment peur ici, c’est la véritable raison de l’accident.

Selon un représentant de Volvo, le module de détection des piétons est offert en option sur cette voiture. Et il n’était pas installé sur celle-ci.

Car voyez-vous, il en coûte 3000 $ de plus pour l’équiper de cet élément optionnel.

Si vous vouliez savoir ce que vaut votre vie, piétons, voilà le chiffre!

La révolte des voitures intelligentes n’est pas pour demain

Ce qui est triste à dire, c’est que dans ce cas-ci, ce sont les humains qui ne brillaient pas par leur intelligence. En fait, il faut savoir deux choses :

1- Volvo ne recommande pas de faire un test avec de vrais humains comme obstacle.

2- L’idée de faire un test de détection d’obstacle sans le module de détection des piétons n’est pas très brillante.

Si on s’en tenait à ces deux points, on pourrait (peut-être) se sentir rassurés. Sauf que :

3- Si l’on doit se fier au bon vouloir des consommateurs pour acheter les modules de sécurité proposés en option par les constructeurs automobiles, ce n’est pas demain la veille qu’on adoptera des voitures autonomes sur la route.

Nous, humains, passons des examens de conduite pour nous assurer que nous avons le minimum requis pour prendre la route.

Il semble évident maintenant que les voitures devraient elles aussi passer cet examen, question de nous prouver qu’elles ont le maximum requis pour prendre la route.

Catherine MathysGoogle, Woody Allen et vous

par

 publié le 8 avril 2015 à 13 h 41

Si les robots ne sont pas encore parmi nous, c’est à prévoir dans un avenir rapproché. D’ailleurs, Google semble s’y préparer de plus en plus sérieusement. La semaine dernière, l’entreprise a déposé un nouveau brevet qui a pour but d’attribuer une personnalité à un robot ou à un ordinateur. Oui, vous avez bien lu. Google veut aider les machines qui vous entourent à mieux s’entendre avec vous en téléchargeant une personnalité comme on télécharge une application.

Un robot qui vous comprend

Un robot (ou un ordinateur) pourrait donc avoir des personnalités multiples pour mieux s’adapter à ses divers utilisateurs.

Chaque personnalité robotique serait évolutive. Les événements du quotidien seraient compilés dans la mémoire du robot, et sa personnalité pourrait donc être modifiée selon ces derniers.

Il serait même possible de créer une banque de personnalités et de les télécharger sur un ou plusieurs robots à la fois. En d’autres termes, on pourrait cloner la personnalité de ce robot pour ne pas perdre toutes les données accumulées. C’est un peu comme quand on garde une carte SIM en changeant de téléphone, sauf qu’ici tout serait accessible dans le nuage de Google.

woody

Là où ça commence à faire un peu peur, c’est ici : le brevet mentionne que la personnalité en question pourrait reproduire celle du propriétaire de l’appareil, ou encore celle d’un proche mort ou d’une vedette. Le robot pourrait donc devenir névrotique comme Woody Allen, si on le souhaite. Ce n’est pas mon exemple, c’est le document de Google qui le dit!

Ce n’est qu’un début

C’était probablement la suite logique des choses. On sait que les robots feront partie de notre quotidien un jour, alors autant raffiner leurs interactions avec nous.

Google s’intéresse à la robotique depuis plusieurs années. Elle a d’ailleurs acheté plusieurs entreprises récemment, dont Boston Dynamics ou encore Bot & Dolly. Cela dit, en ce qui concerne la personnalité des robots, il ne s’agit que d’un brevet pour le moment. Il n’y a donc aucune garantie que Google vise la commercialisation d’un produit avec le processus qu’il y détaille.

Pour l’instant, on semble plus proche de faire notre jogging avec le chien robotisé Spot que de jaser avec Woody Allen dans notre salon.

 

Cette nouvelle est à la jonction des neurosciences et de la biotechnologie, mais on pourrait aussi bien penser que c’est de la science-fiction.

Grâce à un article publié la semaine dernière dans la revue Interface de la prestigieuse institution britannique Royal Society, la science nous montre comment brancher et contrôler à distance une coquerelle (aussi appelée blatte).

cyborgcoquerelle

Avec une puce électronique et une petite batterie au lithium collées sur le dos d’une coquerelle, et des fils branchés sur son système nerveux, il est possible de diriger l’insecte où l’on veut.

C’est en quelque sorte une coquerelle cyborg télécommandée.

En lui ajoutant une caméra miniature ou un micro, précisent les chercheurs, elle devient une sonde pour accéder aux endroits inaccessibles, par exemple pour une fouille après un effondrement de bâtiment.

Toutefois, n’anticipons pas trop. Ce n’est encore qu’un prototype. Les chercheurs n’arrivent à contrôler l’orientation de la coquerelle que dans 60 à 70 % des cas.  Il y a donc encore place à l’amélioration. C’est la façon dont ils se prennent qui est originale.

Contrôlée de l’intérieur

La puce envoie des signaux grâce à deux fils. Ceux-ci sont branchés directement sur les nerfs qui contrôlent les pattes de l’insecte, de chaque côté.

Il faut savoir que les coquerelles ont trois pattes de chaque côté, qui avancent de façon synchronisée.

En envoyant une impulsion électrique sur la patte du milieu, on désynchronise le pas. Selon le côté où l’on envoie la décharge, la désynchronisation des pas fait tourner l’insecte d’un bord ou de l’autre.

Les chercheurs vont tenter d’expérimenter pour contrôler davantage de pattes et augmenter la performance de l’insecte.

Si cette façon de faire est originale, contrôler une coquerelle à distance n’a rien de nouveau. À ce propos, nous sommes déjà au-delà de la science-fiction. Voilà déjà une quinzaine d’années que l’on sait comment contrôler les coquerelles par la technologie.

RoboRoach, une coquerelle à votre service

L’ancienne technique consistait à stimuler les antennes des coquerelles pour leur faire croire qu’elles frappaient un obstacle —on les trompait par rapport à leur environnement pour les faire dévier.

Cette technique est relativement simple et, si vous le voulez, vous pouvez vous-même l’essayer. Oui, oui.

Il existe des ensembles en vente sur Internet pour contrôler votre propre coquerelle avec la méthode de stimulation des antennes.

roboroach-ficge

Ça s’appelle RobotRoach. C’est un ensemble conçu pour les cours de sciences à l’école. RobotRoach est le résultat d’une campagne de sociofinancement menée sur Kickstarter en 2013.

On colle la puce sur le dos de la coquerelle (vendue séparément, en paquet de 12. Eh oui!), on lui colle les antennes et on sort son téléphone portable pour la contrôler. Les signaux sont envoyés aux antennes pour simuler un obstacle et la faire dévier.

Le problème avec cette approche, c’est qu’avec le temps, les coquerelles finissent par ignorer les signaux —elles ne sont pas folles, elles voient bien que leurs antennes les trompent.

Que fait-on des coquerelles qui ont découvert l’astuce? Le site suggère de les mettre à la retraite –bien méritée dans leur cas– afin qu’elles se reproduisent et vous procurent d’autres cobayes, tout plein d’autres cobayes! (Qui a dit qu’être scientifique ne demandait pas d’avoir des nerfs d’acier?)

La nouvelle technique est plus durable, mais soulève des questions éthiques

Avec la nouvelle approche, celle où l’on se branche directement sur le système nerveux de l’insecte, on contrôle la coquerelle de l’intérieur.

Ce n’est pas elle qui interprète un signal, c’est le signal qui lui dicte quoi faire (en fait, c’est une patte sur trois qui reçoit l’impulsion).

La science est capable de pirater le système nerveux des insectes —et aussi des êtres plus gros, comme le rat.

En piratant leur système nerveux, on fabrique des marionnettes vivantes, contrôlées par une télécommande.

On pourrait argumenter que la coquerelle ne fait pas partie des êtres vivants qui méritent notre compassion.

Mon petit doigt me dit qu’il y a des questions qui semblent triviales au début (débattre des droits des blattes), mais qui sont le point de départ d’un chemin qui mène à de plus sérieuses questions.

Si vous avez vu le film La matrice, vous aurez un petit frisson. Aujourd’hui, c’est la coquerelle. Demain, qui sait?

On est encore bien loin de La matrice – ça, ça restera toujours de la science-fiction, à mon avis–, mais on avance assurément dans cette direction.

Je ne sais pas si le libre arbitre existe chez la coquerelle. Je sais, en tout cas, qu’elle risque demain d’obéir au nôtre.

Martin LessardWatson à notre service (ou serait-ce l’inverse?)

par

 publié le 6 février 2015 à 17 h 15

IBM a annoncé cette semaine qu’elle venait d’ajouter cinq nouveaux modules de services pour accéder à la puissance de Watson.

Watson est ce superordinateur qui avait battu les champions du monde à Jeopardy. Il s’était montré supérieur à simuler la connaissance générale, démontrant par là même que des compétences cognitives, que l’on croyait réservées aux humains, peuvent aussi être partagées par la machine.

Watson ne cherche pas à rester un champion de Jeopardy. Il veut devenir le partenaire incontournable des entreprises. Voici ces cinq nouveaux modules offerts en ligne qui permettent de mettre Watson à votre service.

New-services-e1422814890751

Deux de ces services ajoutés concernent la transposition automatique de la voix au texte (et vice-versa). Vous proposez des enregistrements (en anglais) et Watson vous retourne des textes, et l’inverse.

Le troisième module concerne la reconnaissance visuelle (analyse du contenu d’une image). Vous proposez un JPEG et Watson va vous en révéler son contenu (sous forme de probabilités).

Les deux derniers modules m’ont particulièrement intéressé. Ils sont révélateurs, à mon avis, du type de défis que pose l’intelligence artificielle sur le marché du travail.

  • Concept Insight: Ce module explore les liens conceptuels cachés dans la masse d’information ingurgitée par Watson, au-delà de la simple comparaison de textes mot à mot.
  • Tradeoff Analytics: Ce module permet de prendre des décisions en temps réel basées sur des paramètres statiques ou évolutifs, afin de définir des solutions de rechange optimales dans la prise de décision.

On parle ici d’aide à la décision.

Comprendre le monde…

Ces cinq modules s’ajoutent aux huit autres déjà offerts, dont deux qui permettaient de modéliser un utilisateur pour en extraire ses préférences et son niveau de langage, afin qu’un message puisse mieux « résonner » auprès de sa cible.

Je ne sais pas pour vous, mais la plupart de ces modules simulent des compétences qui me semblent être celles qu’on accorde généralement à des directeurs, des conseillers ou des analystes, dans des domaines comme le marketing, la publicité ou le service à la clientèle.

Les lecteurs de Triplex sont bien au courant des avancées des technologies qui auront des conséquences sur la société de demain et le marché du travail en particulier.

Je me demande si le monde de l’éducation et les gouvernements, eux, sont au courant.

Il ne s’agit plus ici de simplement dire que « plus d’éducation » permettrait d’éviter l’obsolescence d’une partie de la force de travail (« convertir des cols bleus en cols blancs »). Les modules de Watson montrent que les employés de bureau sont maintenant dans le collimateur de l’intelligence artificielle.

On sait qu’être conducteur de taxis et de camions n’est pas un métier d’avenir avec la montée des véhicules autonomes, mais doit-on dire au jeune étudiant aujourd’hui de ne pas devenir directeur-conseil ou analyste? La question doit être posée.

… mieux que nous?

La valeur réelle de Watson, ainsi accessible en modules, reste à prouver. Nous verrons bien s’il est à la hauteur des attentes.

Mais ne nous contentons pas d’un rire sarcastique, si IBM n’y parvient pas. IBM n’a pas peur de se tromper (les modules sont clairement identifiés comme beta). La compagnie en retirera assurément des bénéfices.

L’approche infonuagique pour les modules permet à IBM de centraliser tous les apprentissages, y compris ceux provenant d’erreurs.

Ça ne vous rappelle pas quelque chose?

Plus on utilise Google, plus on utilise Facebook, plus ils deviennent forts, puissants et incontournables. Nous sommes ceux et celles qui avons créé ces géants qui occupent nos vies aujourd’hui.

Ce sera la même chose pour Watson.

Plus il y a aura de gens qui vont l’utiliser, plus il deviendra fort, puissant et incontournable.

Sommes-nous en train d’éduquer un géant capable de comprendre le monde mieux que nous-mêmes?