Martin LessardLes 2 technologies à surveiller en 2016

Par

 publié le 4 janvier 2016 à 15 h 53

La convergence de plusieurs technologies va rendre accessibles la réalité virtuelle et l’intelligence artificielle qu’on croyait, jusqu’à tout récemment, du domaine de la science-fiction.

1- La réalité virtuelle grand public

Voilà bien des années qu’on nous la promet, celle-là. L’industrie avait tenté son coup durant les années 90, mais la technologie n’était pas à la hauteur des attentes. Elle veut éviter à tout prix de rater à nouveau son entrée sur le marché.

Après trois ans de perfectionnement, il semble que l’industrie est prête à lancer ses casques de réalité virtuelle en 2016. Des versions de développement circulaient déjà, mais cette année, c’est le baptême du marché grand public.

Les trois produits phares attendus sont :

  • Oculus Rift (sortie prévue dans la première moitié de 2016)
  • PlayStation VR (sortie prévue dans la première moitié de 2016)
  • HTC Vive (sortie à être annoncée au CES 2016)

On imagine très bien que les jeux vidéo seront le premier débouché pour ces casques. Mais il y a aussi des applications professionnelles très intéressantes que l’on peut envisager :

- Sport : Stanford propose une simulation en réalité virtuelle pour améliorer certaines techniques au football.

- Santé : agoraphobie ou peur de prendre l’avion? Avec un casque de réalité virtuelle, il est possible de contrôler exactement l’environnement pour faire vivre, à petites doses, puis de plus en en plus intensément des expériences pour vaincre la peur.

- Trouble du spectre autistique : la réalité virtuelle ne peut pas guérir l’autisme, mais elle peut améliorer certains comportements. Si un jeune autiste a des problèmes d’attention sociale (il ne fixe pas les personnes dans les yeux ou les ignore), il peut apprendre à entrer en contact avec les gens. Dans le monde virtuel, les personnages se présentant devant lui deviennent lentement transparents et disparaissent si l’enfant cesse de les regarder.

2 – L’intelligence artificielle à toutes les sauces

Après une décennie d’inertie, le grand projet de l’intelligence artificielle a été relancé en 2011 grâce à la percée de l’apprentissage en représentation profonde (deep learning). Montréal est d’ailleurs une plaque tournante de l’apprentissage en représentation profonde grâce à Yoshua Bengio, de l’Université de Montréal.

Avec l’apprentissage en représentation profonde, les programmes sont capables « d’apprendre à apprendre », à peu près comme le font nos cerveaux avec les synapses et les neurones qui s’alimentent les uns les autres.

Vous utilisez déjà d’une manière ou d’une autre des applications développées ou améliorées grâce à l’apprentissage en représentation profonde. Nommons Siri (d’Apple), Google Now, Cortana (de Microsoft) et Alexa (d’Amazon), qui s’améliorent d’année en année.

En décembre dernier, Google, Microsoft, Facebook et IBM ont déposé en code source ouvert la plupart de leurs technologies d’apprentissage en représentation profonde. L’initiative s’appelle OpenAI, une nouvelle organisation à but non lucratif, et veut rendre publiques les recherches sur l’intelligence artificielle et partager les brevets qui peuvent en découler.

Au lieu que chacun travaille dans son coin, les grandes firmes rendent maintenant leurs découvertes accessibles à tout le monde. Attendez-vous alors à voir une prolifération de systèmes qui utilisent d’une façon ou d’une autre les avancées en intelligence artificielle.

  • Jibo, le robot social capable de réagir aux émotions humaines.
  • Amazon Echo, le haut-parleur doublé d’un moteur de recherche vocal intelligent.
  • SmartThinQ hub de LG, qui offre les mêmes fonctions que l’Echo d’Amazon, mais avec la volonté de fédérer tous les objets connectés de la maison.

D’objets de curiosité, ces nouveaux appareils connectés en permanence semblent vouloir devenir nos gestionnaires de notifications et d’agenda, pour le meilleur ou pour le pire.

Le traitement de l’information en temps réel est assez bien maîtrisé, et les prochaines innovations viendront du côté du décodage de l’émotion.

Les ordinateurs sont maintenant en mesure de détecter notre état émotionnel, grâce aux caméras plus précises et à la reconnaissance faciale et vocale.

Les chercheurs étudient comment cette nouvelle connaissance peut être utilisée dans l’enseignement, pour traiter la dépression, pour prédire avec précision des diagnostics médicaux et améliorer le service à la clientèle ainsi que les achats en ligne.

Du point de vue des machines, décoder nos émotions, c’est accéder au coeur de ce qui les rendra plus humaines.

Tendance