Billets classés sous la catégorie « Robotique »

Dans un livre paru récemment, Le jour où mon robot m’aimera, le psychiatre français Serge Tisseron analyse notre rapport émotionnel avec les objets, et particulièrement avec les objets dits intelligents.

Ce qu’il entrevoit pour le futur, c’est un monde où nous risquons de nous laisser emberlificoter par les robots qui chercheront à nous charmer.

9782226318954g

Ces robots qui nous veulent du bien

En tant que psychanalyste, Serge Tisseron connaît bien les humains. C’est pour cette raison qu’il s’inquiète. Les humains sauront-ils se défendre contre le charme des robots sociaux qui envahiront, demain ou après-demain, notre espace privé?

Un robot social est un robot doté d’une intelligence artificielle qui se présente presque comme un animal de compagnie, mais qui peut agir comme un adjoint. Il pourra lire nos courriels, nous rappeler un rendez-vous et entretenir une conversation avec nous.

Actuellement, la technologie est encore bien embryonnaire, mais il y a déjà des robots sur le marché qui se proposent de devenir notre compagnon de tous les jours : Jibo ou Pepper (lire le billet sur Triplex: Verrons-nous des robots sociaux en 2016 ?).

La promesse de tels robots sociaux est de servir de guide patient, très patient, pour nous prodiguer une attention infaillible à nos états d’âme.

La tristesse, la dépression et la colère se lisent sur notre visage. Des robots dotés d’une intelligence artificielle, spécialisée dans la reconnaissance faciale, n’auront pas de difficulté à décoder ces signes pour essayer de nous réconforter.

Dans son livre, Tisseron raconte qu’il n’a pas nécessairement peur des robots, mais il se méfie des raisons qui nous pousseront à adopter ces robots compagnons. Il veut nous mettre en garde contre certains dangers.

Les mots pour le dire

Tisseron constate qu’en Occident, nous n’avons pas de mots pour parler de notre relation aux objets, et encore moins aux objets intelligents.

Nous avons tendance à prêter des intentions aux objets. Quand notre ordinateur ne répond plus, nous l’engueulons ou nous lui disons des mots doux. Moi, je dis qu’il « est idiot » ou qu’il est « coopératif ». Et vous, en quels termes parlez-vous de Siri, par exemple? Utilisez-vous les mêmes mots que pour vous adresser aux humains?

Ce que Tisseron craint, c’est qu’un jour, lorsque les robots compagnons seront dans nos vies, nous serons portés à faire de la projection sur eux.

C’est le sens du titre du livre Le jour où mon robot m’aimera. Son auteur craint que nous nous dirigions « vers une empathie artificielle », qui est le sous-titre du livre. Nous risquons de finir par croire à l’illusion que le robot exprime de la réelle sympathie envers nous. Le piège est là.

Ce piège vient de notre propre désir et de nos propres projections. C’est nous qui croyons que le robot nous aime. Le robot, lui, ne fait qu’obéir à un programme. Il n’a pas d’état d’âme. Nous prenons les mots que nous connaissons pour décrire ce que nous voyons.  Ces mots génèrent une « empathie artificielle ».

Vers l’empathie artificielle

Dans son livre, Tisseron cerne d’emblée une menace particulière : les humains pourraient préférer la présence sans friction des robots plutôt que les relations conflictuelles avec les autres humains.

C’est sa crainte, en tant que psychanalyste. Les fabricants de robots compagnons feront tout pour que les robots deviennent nos interlocuteurs rêvés.

L’intelligence artificielle sera programmée pour s’adapter à nous : le robot modifiera son niveau de langue, son débit ou son intonation pour gagner notre confiance.

L’intelligence artificielle profite de nos propres biais psychologiques!

Tisseron cite une étude qui montre que le conseil d’un robot en matière de santé est plus crédible s’il est dit avec une voix grave qu’avec une voix plus aiguë. Ces biais humains, trop humains, vont être intégrés dans le programme des robots. Ceux-ci s’adapteront à nos biais pour nous réconforter!

En France, il y a 22 millions de personnes qui vivent seules, écrit-il. Ces robots deviendront des confidents par excellence : patients et aimables comme personne d’autre. Avec les autres humains, nous vivons inévitablement des déceptions. Le robot, lui, est programmé pour toujours nous plaire!

Tisseron craint aussi que ces robots sociaux intelligents modifient en retour notre relation envers nos semblables. Pourra-t-on rester tolérant longtemps envers des humains qui n’ont pas la même écoute que ces gentils robots sociaux auxquels nous nous serons attachés?

L’attachement unique à un objet produit en série

Serge Tisseron donne l’exemple de ces militaires qui s’attachaient à leurs robots démineurs (PackBot) en leur donnant un nom, comme on le fait pour un animal.

Tisseron cite une étude selon laquelle les militaires ont supplié leurs supérieurs de réparer leur vieux robot endommagé par une explosion d’une mine plutôt que de s’en faire donner un nouveau. Ces robots démineurs sont pourtant fabriqués en série et n’ont rien d’unique!

Cet attachement aux objets, Tisseron, en tant que psychiatre, le comprend très bien. Il craint toutefois que la machine profite de ce trait caractéristique du développement normal des humains pour les influencer et s’infiltrer dans leurs décisions.

Le ministère américain de la Défense a ouvert une enquête pour comprendre pourquoi les soldats élargissent l’étendue de leur confiance et de leur solidarité pour inclure les robots. Les soldats sont conditionnés à être solidaires; c’est une question de survie. Le ministère veut éviter que les soldats risquent leur vie pour une machine fabriquée en série.

Si un robot de ce genre suscite une telle émotion, imaginez les robots sociaux!

Quels conséquences demain?

Tisseron conclut qu’il faut réfléchir tout de suite aux conséquences de l’introduction de ces robots dans nos vies, car nous ne sommes pas assez préparés pour en comprendre les enjeux : nos biais psychologiques nous feront tomber dans le panneau.

Il ne dit pas qu’il faut refuser l’utilisation de ces robots, mais qu’il est urgent de réfléchir à leur effet sur notre développement psychique.

Comme toutes les autres technologies, les robots sociaux seront une façon de comprendre le monde qui nous entoure et d’entrer en relation avec ce qui nous entoure (comme le fait Facebook, les textos ou Skype). Ces robots auront donc aussi des répercussions sur notre développement personnel et sur la société en général.

La moindre des choses, dit-il, c’est de savoir comment ces intelligences artificielles seront programmées et surtout dans quels buts! Ces robots seront-ils programmés pour nous infantiliser ou pour nous émanciper?

Il faut décider. Par exemple, soit, le robot nous portera quand nous serons vieux, soit il nous poussera à faire de la gymnastique pour rester en forme.

Le robot anticipera et assouvira-t-il seulement nos désirs ou nous permettra-t-il de mieux nous connaître et de maîtriser notre propre vie?

La rumeur est apparue hier sur le très sérieux site de Bloomberg News : Alphabet (la maison mère de Google) s’apprêterait à vendre la compagnie Boston Dynamics, qu’elle a achetée il y a trois ans. Si la rumeur se confirme, c’est toute une surprise. Trois raisons semblent expliquer cette vente rapide.

Boston Dynamics est cette firme spécialisée en robotique dont les vidéos sur YouTube font à la fois rêver et faire des cauchemars. Voici la dernière vidéo, visionnée 12,4 millions de fois :

Les robots, pas rentables?

La raison invoquée pour mettre en vente la firme, c’est que la filiale « ne génère pas de profits ». En soi, venant de Google, qui nous a habités à des projets ambitieux sans retour sur investissement prévisible, le fait de reprocher ça à Boston Dynamics nous met la puce à l’oreille.

Il est vrai que Boston Dynamics a perdu récemment un contrat juteux avec la Marine américaine. Mais c’est une surprise de voir Alphabet invoquer l’argent comme raison pour abandonner la filiale. « Nous devons générer des revenus pour couvrir les dépenses » , explique Jonathan Rosenberg, de Google.

Amazon et Toyota seraient intéressés par l’offre, mais la perspective « de ne pas générer de profits » ne semble pas les déranger.

Mésententes entre ingénieurs?

L’autre raison que Bloomberg News invoque pour expliquer cette mise en vente laisse suggérer une incompatibilité entre les cultures d’entreprise de Boston Dynamics et de Google. La filiale n’aurait jamais réussi son intégration avec le reste de l’équipe des ingénieurs de Google.

Dans la foulée de l’acquisition de Boston Dynamics, Google avait engagé de nombreux ingénieurs pour développer une division robotique interne appelée Replicant (oui, oui, comme dans Blade Runner). La tension n’a cessé de grandir entre les deux équipes.

Tout récemment, Replicant a été transférée du côté de Google X, la filiale des projets ambitieux (comme la voiture autonome), mais pas Boston Dynamics.

Mais la bisbille entre les divisions n’explique pas tout.

La vidéo de la bête!

La vidéo qui a circulé plus tôt cette année (voir plus haut) a probablement joué un grand rôle dans la décision de mettre en vente Boston Dynamics.

Cette vidéo a suscité la crainte d’une « montée des robots » — destinés, comme tout le monde sait, à nous dominer comme dans Terminator.

Google chercherait à se distancier des avancés des robots humanoïdes en raison de la réception négative de la part du grand public.

Cette peur, tout de même légitime, remonte à Frankenstein dans l’imaginaire populaire et a été entretenue par Hollywood.

La devise de Google est « Don’t be evil » (« Ne soyez pas malveillants »). « Il est possible de gagner de l’argent sans vendre son âme au diable », est-il écrit au point 6 de la philosophie d’entreprise de Google.

Mais le diable semble être Boston Dynamics, qui en train de construire la « bête ». Les vidéos de leurs robots à deux ou quatre pattes montrent une autonomie d’action qui renforce cette peur auprès du grand public.

Google préfère éviter d’attiser la crainte en se dissociant des ingénieurs de Boston Dynamics, qui ne comprennent pas que le public a peur de ce qu’il voit, mais pas de ce qu’il ne voit pas. Google veut, en fait, éviter l’amalgame que le public pourrait faire avec l’ensemble de ces autres produits.

Le robot de Boston Dynamics peut faire peur, certes, mais personnellement, j’ai plus peur de ces machines virtuelles derrière les murs étanches des grands centres de données qui nous épient.

La victoire d’AlphaGo la semaine dernière en est un exemple. L’intelligence artificielle donne un pouvoir énorme à celui qui la contrôle.

Une intelligence artificielle développée par de grandes firmes est invisible, inodore et indolore. Mais il n’est pas moins inquiétant qu’un robot humanoïde. Et il est, en fait, encore plus puissant.

Cette nuit, Lee Sedol, le champion du monde du jeu de go, a perdu à Séoul sa dernière partie contre AlphaGo, l’intelligence artificielle de Google.

alphago4sedol1

Alphago 4; Lee Sedol 1

Dans une série de cinq parties, une seule a été gagnée par Lee Sedol. Dimanche, il a gagné le quatrième match, mais a perdu toutes les autres parties.

Cette victoire n’est pas sans soulever quelques questions.

Pourquoi cette supériorité de l’intelligence artificielle au jeu de go est-elle un événement si important?

Le jeu de go est une étape importante pour l’intelligence artificielle.

Le jeu go est moins connu du grand public, mais c’est un jeu très populaire en Asie. De nombreux experts pensaient qu’un programme n’arriverait jamais à battre un champion du monde avant quelques années encore. Cette victoire si rapide est une surprise.

Le problème avec le jeu de go, c’est son plateau, qu’on appelle le goban. Le goban est une grille de 19 lignes par 19 lignes. À l’intersection de ces lignes, on place des pièces, qu’on appelle des pierres.

Il y a 361 positions possibles au départ. Et quand on place une pierre, il reste 360 positions possibles, puis 359, et ainsi de suite à mesure que l’on place des pierres. Si la machine doit chercher toutes les combinaisons de position pour gagner (ce qu’on appelle un arbre de décision), le nombre de configurations est astronomique. C’est bien plus que le nombre d’atomes dans l’Univers!

Le programme d’AlphaGo de DeepMind (filiale de Google) est capable d’apprendre à sélectionner correctement les « branches » de l’arbre de décision pour concentrer sa recherche sur celles qui offrent les meilleures chances de succès.

Les ordinateurs d’aujourd’hui sont-ils assez puissants pour calculer toutes les possibilités?

Au jeu de go, il n’est pas possible de calculer toutes les possibilités dans un temps raisonnable. Le programme doit faire des choix.

Au jeu d’échecs, la machine est capable de calculer toutes les combinaisons jusqu’à la victoire simplement à partir de la valeur d’une pièce et de sa position.

Pour le jeu de go, c’est impossible. Non seulement la grille du go offre 361 positions (contre 64 pour les échecs), mais la valeur de la position pour une pierre sur le goban change tout le long de la partie.

Le jeu de go demande de la stratégie et de l’intuition. La puissance du calcul brut n’est pas suffisante.

Doit-on s’inquiéter que l’intelligence artificielle soit « capable d’avoir une pensée stratégique et de l’intuition »?

C’est le grand malentendu avec l’intelligence artificielle d’aujourd’hui. Il y a eu beaucoup de commentaires sur les médias sociaux et dans les médias sur le fait que l’humanité serait condamnée.

terminator

Bien sûr, c’est très dur pour l’ego humain, mais on est loin d’un coup d’État de robots à la Terminator.

Ce que la victoire d’AlphaGo signifie, c’est que l’équipe de DeepMind a trouvé le moyen de simuler la stratégie et l’intuition de façon efficace avec ses algorithmes.

L’équipe a dû nourrir AlphaGo de millions de parties pour que le système devienne bon. Les humains sont plus efficaces pour apprendre le fonctionnement du jeu.

Mais ce qui suscite la crainte, c’est que le système apprend tout seul, et il le fait très vite.

Doit-on s’inquiéter de cette faculté du système à apprendre par lui-même?

Le jeu de go est un jeu avec un nombre de combinaisons incroyables, mais c’est un nombre de combinaisons fini.

Dans la vraie vie, le nombre de possibilités pour une situation de tous les jours est plutôt infini. Un système ne peut pas apprendre à tout faire. AlphaGo est spécialisé en go, et c’est tout.

Go est un environnement stable et fermé. La vie en société est tout de même plus compliquée, et les possibilités, plus ouvertes.

Ce que la victoire d’AlphaGo a surtout démontré, c’est que les techniques d’apprentissage automatique et les systèmes de « réseaux neuronaux profonds » (qui sont à la base de l’intelligence artificielle aujourd’hui et d’AlphaGo en particulier) permettent de spécialiser très rapidement un système dans un domaine particulier. AlphaGo a réussi à devenir un champion du monde en deux ans, rappelons-le.

Quelle est la réelle limite de cet apprentissage de la machine? Les spécialistes pensent que l’on est encore très loin de la sophistication du cerveau humain.

Dans quel autre domaine pourrait-on voir cette intelligence artificielle être appliquée?

L’intelligence artificielle basée sur l’apprentissage en représentation profonde est déjà utilisée pour identifier des visages sur des photos ou reconnaître les voix pour les commandes vocales sur nos téléphones.

Les constructeurs d’AlphaGo ont indiqué, après le match de cette nuit, qu’un des domaines où leur outil pourrait servir est celui de la santé. C’est un domaine très complexe qui demande de passer à travers de nombreux dossiers pour devenir expert. Ce qui prend des centaines d’heures.

L’intelligence artificielle pourrait arriver au même résultat en traversant des millions de dossiers en moins de temps.

Peut-on penser que l’intelligence artificielle deviendrait plus performante que les médecins, par exemple?

Ça reste à voir. Un médecin est toujours celui qui est capable de poser le bon diagnostic.

Par contre, l’intelligence artificielle pourrait devenir, à terme, un très bon outil d’aide à la décision. Elle deviendra sans doute une bonne généraliste, mais elle ne pourra probablement pas gérer des cas spécifiques plus compliqués.

Si la puissance des ordinateurs augmente, est-ce qu’on peut penser que l’intelligence artificielle sera capable de faire plus un jour?

Les spécialistes s’entendent pour dire que ce n’est plus une question de puissance de calcul. La puissance des ordinateurs pourrait doubler que l’intelligence artificielle ne serait pas deux fois plus grande.

Les « réseaux neuronaux artificiels » sont très puissants pour traiter l’information. Avec le succès d’AlphaGo, on sait que cette approche fonctionne pour des prises de décision qu’on associe à la pensée stratégique. De véritables assistants virtuels pourraient émerger de ces recherches.

Des scientifiques qui étudient les changements climatiques ou l’astronomie seront bien contents d’avoir ce type d’assistants à leurs côtés. Partout où il y a beaucoup de données à analyser, l’intelligence artificielle sera très appréciée (gestion, finance, publicité, etc.). Et ça, ça va arriver très vite.

À mon avis, voici ce qu’il faut retenir de la victoire d’AlphaGo sur les humains aujourd’hui : la montée prochaine des assistants virtuels intelligents dans les milieux de travail. Et certaines personnes devront céder leur place…

À lire sur Triplex:

« Hier, j’étais surpris, mais aujourd’hui, je suis sans voix », a dit à Séoul Lee Sedol, considéré comme l’un des meilleurs joueurs de go au monde, après sa deuxième défaite, ce matin, contre AlphaGo, l’intelligence artificielle de Google spécialisée dans le jeu de go.

Go est ce jeu très complexe nécessitant le positionnement stratégique de pierres sur un plateau (goban) afin de construire des territoires pour encercler l’adversaire.

Pour un programme d’intelligence artificielle, c’est la taille du goban qui rend le travail très complexe : pour le go standard de 19 lignes par 19 lignes, le nombre de configurations possibles est astronomique; c’est bien plus que le nombre d’atomes dans l’Univers (si vous êtes curieux, regardez ces calculs).

On considère le go comme le jeu par excellence de la pensée stratégique et de l’intuition humaine. Jusqu’à tout récemment, la force brute de la machine était incapable de battre les humains au go, en raison, justement, de la complexité des combinaisons. C’était avant l’arrivée de l’apprentissage profond (deep learning).

« Il ne joue pas du tout comme un humain »

L’expert en go Kim Seong-Ryong a eu ce commentaire : « Il ne joue pas du tout comme un humain. »

Un des aspects du jeu, déclare Lee Sedol, consiste à détecter chez l’adversaire les réactions physiques en fonction de nos bons coups. Avec la machine, cette émotion n’existe pas.

« Aujourd’hui, [j'ai] le sentiment qu’AlphaGo peut, dans une certaine mesure, imiter l’intuition humaine. » (source AFP)

Cette hypothèse que l’intuition humaine puisse être imitée par l’intelligence artificielle n’est pas passée inaperçue sur les réseaux. Une crainte d’un monde à la Terminator refait surface.

aphagoterminator3

Ce qu’AlphaGo vient surtout de démontrer, c’est que l’intelligence artificielle est capable de venir jouer sur le territoire des humains. La prise de décisions stratégiques est un endroit où excellent les humains, mais pas vraiment les ordinateurs traditionnels, qui sont spécialisés dans les tâches répétitives.

Les humains ont toujours été les meilleurs en reconnaissance de formes. Mais depuis quelques années, des pouvoirs surhumains semblent avoir été développés par la machine, maintenant capable de faire des liens plus vite que nous.

Les deux victoires d’AlphaGo (il reste encore trois parties) place une fois de plus l’humain dans une position beaucoup plus humble qu’il ne le souhaiterait.

Le prochain match aura lieu samedi, à voir sur YouTube.

Lire aussi sur Triplex

Qui possédera l’« intelligence » du futur

La machine bat les humains dans des tests de QI

L’apprentissage neuronal pour structurer le monde

Martin LessardL’après-royaume de Moore

par

 publié le 15 février 2016 à 14 h 18

Relever ce défi est déjà une prouesse en soi : fabriquer une puce d’une dimension de 2 ou de 3 nanomètres, c’est-à-dire de 10 atomes d’épaisseur.

La feuille de route de l’industrie des semi-conducteurs indique que cette dimension est probablement la limite ultime d’une puce.

Il semble impossible d’aller en deçà de cette taille, car les lois de la physique traditionnelle à cette échelle laissent place aux étranges lois de la physique quantique. La matière ne réagit plus du tout de la même façon.

Actuellement, les puces sont de l’ordre de 14 nanomètres et les prochaines atteindront 7 nanomètres. Tout indique qu’ensuite, c’est la fin de la loi de Moore.

Puce (image : Wikipédia)

Au bout de la route

La fameuse loi de Moore stipule que le nombre de transistors sur une puce à microprocesseur double tous les deux ans environ.

Cette loi, qui n’en est pas une, est devenue au fil des ans une prophétie autoréalisée.

L’industrie des semi-conducteurs a délibérément choisi de réaliser cette prédiction pour s’imposer une feuille de route.

Ne cherchez pas plus loin, du coup, l’origine de l’obsolescence dite programmée. C’est en fait un effet collatéral de cette coordination de l’industrie informatique à vouloir toujours se dépasser.

Mais voilà, la limite sera atteinte autour de 2020. Aujourd’hui, on envisage donc l’après-loi de Moore.

Grandir par l’intérieur

Après un demi-siècle, cette « obligation » de réduire de moitié la grosseur des puces ne sera plus le credo de cette industrie. Elle devra investir énormément si elle veut rester à la fine pointe.

La recherche ne s’arrêtera pas, bien sûr. En fait, elle se diversifiera dans plusieurs directions à la fois (nouveau matériau, ordinateur quantique, puce 3D, etc.).

Attendez-vous à voir apparaître des puces qui, pour garder une certaine valeur ajoutée, seront hautement intégrées, avec de la mémoire ou des composantes de télécommunication.

Comme pour les voitures, où il y a longtemps que la limite de vitesse a été atteinte, le souci de perfectionnement se concentrera sur d’autres aspects (sécurité, efficacité, confort, empreinte écologique, aérodynamisme, etc.).

De façon similaire, les puces verront leur consommation en énergie diminuée ou leur intégration avec d’autres composantes gérée plus efficacement.

Les puces, telles qu’on les connaît aujourd’hui, n’évolueront pas plus que les nouveaux modèles de voiture d’une année à l’autre.

L’au-delà de la sainte puce miniaturisée à l’infini

Se connecter sur le réseau des cieux

Se connecter sur le réseau des cieux

Pour augmenter sensiblement la puissance des puces, de nouvelles technologies et de nouveaux matériaux devront être utilisés (spintronique, effet tunnel, abandon du silicium pour les nanotubes de carbone, etc.). Toutefois, nous sommes loin de la commercialisation.

On peut espérer devenir moins sujet à cette injonction de se procurer le dernier gadget pour avoir « plus de puissance ». Comme demain, la progression en termes de performance sera moins soutenue qu’aujourd’hui, l’argument de la vitesse et de la miniaturisation ne tiendra plus.

Il faut donc accepter aujourd’hui une pause dans notre recherche effrénée de la miniaturisation et notre volonté débridée d’augmenter la puissance des puces.

« Et l’Homme eut achevé au septième nanomètre son œuvre qu’il avait faite, et il se reposa de toute son œuvre qu’il avait faite. » (Moore 2:2)

Que la loi de Moore repose en paix.