Billets classés sous la catégorie « Tendance »

Dans le dernier numéro du magazine Nouveau projet, le rédacteur en chef, Nicolas Langelier, nous a offert une réflexion sur l’état du monde.

Un passage, presque un aparté anecdotique, a retenu mon attention. Le sujet principal de son article porte sur autre chose. Voilà pourquoi j’ai été surpris de lire au milieu de son texte :

« […] déjà 16 années écoulées dans ce 21e siècle qui promettait tant, mais qui a si peu donné (en 1916, le 20e siècle avait déjà inventé la psychanalyse, la physique quantique, le cubisme, le fauvisme, le futurisme, le dadaïsme, la radio, l’impression offset, la génétique, la salle de cinéma, la relativité, le Model T et l’avion) […] »

Dans ce passage, en marge de son idée principale, il dit que les années 1900 auraient tenu leurs promesses, mais pas les années 2000.

Je profite de l’occasion pour explorer cette question  : que nous a apporté les 16 premières années du 21e siècle?

J’ai l’impression que les innovations des dernières années restent trop souvent dans l’angle mort des observateurs d’aujourd’hui. Sinon, pourquoi Nicolas Langelier aurait-il comparé avec autant d’assurance les deux époques sur le plan des avancées scientifiques, technologiques et industrielles?

Côté technologique, je crois que nous pouvons dire que le 21e siècle nous en donne pour notre argent.

L’herbe d’hier est toujours plus verte que celle d’aujourd’hui

Il va sans dire que les innovations de 1900 à 1916 sont impressionnantes.

  • La psychanalyse, la génétique, la physique quantique et la relativité ont changé à tout jamais notre rapport au monde.
  • Le cubisme, le fauvisme, le futurisme, le dadaïsme sont des mouvements qui ont créé une réelle rupture avec l’art classique.
  • L’impression offset, la salle de cinéma et la radio ont provoqué une révolution en communication.
  • La Ford T et l’avion sont des innovations indéniables en transport.

À bien des égards, cette époque a été très féconde. Pourtant, les parallèles avec la nôtre ne manquent pas.

Nous n’avons pas 100 ans de recul pour juger ces parallèles, mais des avancées récentes dans de nombreux domaines semblent tout aussi prometteuses.

Ce qui change

Pour ne citer que quelques avancées, voici cinq pistes explorées de 2000 à 2016 :

- Génétique : CRISPR. Pour une fraction du prix et du temps habituels, il est possible de modifier le patrimoine génétique d’être vivant avec une précision inégalée. Surnommé le copier-coller de l’ADN, l’outil permet d’enrayer les maladies génétiques ou d’altérer un génome pour augmenter une résistance à des virus. Lire La modification de l’ADN à la portée de tous, dans la revue La Recherche.

- Analyse statistique : Big Data. Les mégadonnées permettent dans certains domaines de traiter une quantité massive d’information mieux que le ferait un humain. Déjà à la Bourse, des actions s’échangent en une fraction de seconde. Les grandes plateformes web personnalisent les flux de données en temps réel pour une portion non négligeable de l’humanité en ligne. Lire Nous étudions de nouveaux objets scientifiques, une interview de Luc Blondel dans La Recherche.

- Voiture autonome : Les conducteurs de camions et les taxis feront-ils le poids longtemps devant un parc de véhicules autonomes capables de se rendre à bon port sans  intervention? Lire Les voitures autonomes arrivent au Canada, de Maxime Johnson.

- Intelligence artificielle : Deep Learning. L’apprentissage profond par réseaux neuronaux artificiels a décuplé la capacité de reconnaissance automatique audiovisuelle des capteurs. Cette intelligence viendra équiper nos objets, nos voitures, nos robots de demain. La montée en puissance des ordinateurs a redonné un second souffle aux recherches à un point tel qu’on parle de printemps de l’intelligence artificielle. Lire Comment le « deep learning » révolutionne l’intelligence artificielle, dans Le Monde.

- La réalité virtuelle ou augmentée : le studio Felix & Paul est notre studio Méliès d’aujourd’hui. Au-delà du divertissement (on associe la réalité virtuelle au cinéma et au jeu), les environnements immersifs touchent aussi nos relations de travail, nos relations sociales et même la santé. Lire La réalité virtuelle révolutionne l’expérience client, dans Les Échos.

On pourrait soutenir que ces technologies reposent sur les épaules des géants et qu’elles sont une continuité de ce qui se fait depuis 100 ans. Je laisserai au rédacteur en chef de Nouveau projet dans 100 ans en décider.

Mais regardons, avant de conclure trop vite, cette invention de Microsoft, l’« holoportation ».

Holoportation

Si la physique quantique nous a présenté une réalité physique à laquelle nous ne nous attendions pas du tout – même 100 ans après -, que penser de l’holoportation, qui nous promet de nous entourer d’images de synthèse en temps réel?

Expliquer l’holoportation à quelqu’un aujourd’hui, c’est comme expliquer la radio, le cinéma et l’avion à quelqu’un hier.

Avant d’imaginer ce que ces inventions auront comme répercussions dans l’avenir, nous les voyons simplement comme un passe-temps pour de jeunes passionnés. Il faut voir plus loin.

Comme le disait un animateur de radio récemment, « j’ai entendu la chronique techno de Matthieu Dugal, et c’était assez… technologique ». Avoir le nez collé sur l’antenne wi-fi, c’est perdre de vue la forêt des changements qui s’annoncent. Ajoutez 100 ans de développement technologique. Serons-nous dans le même monde? Voilà la question.

Grâce à la miniaturisation, les éléments du système d’holoportation devraient se fondre dans notre décor. Comme le téléphone ou Skype, l’holoportation comblera potentiellement un besoin social qui reste à définir. Peut-on imaginer, avec la masse de données enregistrées, jumelées à l’intelligence artificielle, que notre double virtuel puisse nous survivre dans l’holoportation?

Dans 100 ans

Ces innovations dépassent toujours la simple prouesse technologique et leurs répercussions changent le cours de l’histoire. Nos relations sociales ne sont plus les mêmes. Les conditions de vie changent, notre compréhension du monde aussi. Pensons seulement à ce que 25 ans de web ont fait à notre société.

Ce qui se passe aujourd’hui n’est pas différent de ce qui se passait il y a 100 ans. Il nous manque certes du recul pour juger, mais il ne manque pas de candidats pour affirmer que le futur s’écrit aujourd’hui au présent.

Voilà déjà 16 années d’écoulées dans ce siècle qui promettait si peu, mais qui a pourtant tant donné!

À lire aussi sur Triplex

L’après-royaume de Moore, sur l’impact de la fin la miniaturisation des puces de silicium.

Verrons-nous des robots sociaux en 2016? sur la montée des algorithmes capables d’interpréter les sentiments.

Les questions à se poser après la victoire d’AlphaGo sur les humains sur les possibilités et limites de l’intelligence artificielle.

« Uberisation » : le grand transfert d’emplois sur la menace du chômage technologique.

L’ère post-surveillance : la course à la protection des données privées sur les dangers du réseau omniprésent.

Martin LessardL’après-royaume de Moore

par

 publié le 15 février 2016 à 14 h 18

Relever ce défi est déjà une prouesse en soi : fabriquer une puce d’une dimension de 2 ou de 3 nanomètres, c’est-à-dire de 10 atomes d’épaisseur.

La feuille de route de l’industrie des semi-conducteurs indique que cette dimension est probablement la limite ultime d’une puce.

Il semble impossible d’aller en deçà de cette taille, car les lois de la physique traditionnelle à cette échelle laissent place aux étranges lois de la physique quantique. La matière ne réagit plus du tout de la même façon.

Actuellement, les puces sont de l’ordre de 14 nanomètres et les prochaines atteindront 7 nanomètres. Tout indique qu’ensuite, c’est la fin de la loi de Moore.

Puce (image : Wikipédia)

Au bout de la route

La fameuse loi de Moore stipule que le nombre de transistors sur une puce à microprocesseur double tous les deux ans environ.

Cette loi, qui n’en est pas une, est devenue au fil des ans une prophétie autoréalisée.

L’industrie des semi-conducteurs a délibérément choisi de réaliser cette prédiction pour s’imposer une feuille de route.

Ne cherchez pas plus loin, du coup, l’origine de l’obsolescence dite programmée. C’est en fait un effet collatéral de cette coordination de l’industrie informatique à vouloir toujours se dépasser.

Mais voilà, la limite sera atteinte autour de 2020. Aujourd’hui, on envisage donc l’après-loi de Moore.

Grandir par l’intérieur

Après un demi-siècle, cette « obligation » de réduire de moitié la grosseur des puces ne sera plus le credo de cette industrie. Elle devra investir énormément si elle veut rester à la fine pointe.

La recherche ne s’arrêtera pas, bien sûr. En fait, elle se diversifiera dans plusieurs directions à la fois (nouveau matériau, ordinateur quantique, puce 3D, etc.).

Attendez-vous à voir apparaître des puces qui, pour garder une certaine valeur ajoutée, seront hautement intégrées, avec de la mémoire ou des composantes de télécommunication.

Comme pour les voitures, où il y a longtemps que la limite de vitesse a été atteinte, le souci de perfectionnement se concentrera sur d’autres aspects (sécurité, efficacité, confort, empreinte écologique, aérodynamisme, etc.).

De façon similaire, les puces verront leur consommation en énergie diminuée ou leur intégration avec d’autres composantes gérée plus efficacement.

Les puces, telles qu’on les connaît aujourd’hui, n’évolueront pas plus que les nouveaux modèles de voiture d’une année à l’autre.

L’au-delà de la sainte puce miniaturisée à l’infini

Se connecter sur le réseau des cieux

Se connecter sur le réseau des cieux

Pour augmenter sensiblement la puissance des puces, de nouvelles technologies et de nouveaux matériaux devront être utilisés (spintronique, effet tunnel, abandon du silicium pour les nanotubes de carbone, etc.). Toutefois, nous sommes loin de la commercialisation.

On peut espérer devenir moins sujet à cette injonction de se procurer le dernier gadget pour avoir « plus de puissance ». Comme demain, la progression en termes de performance sera moins soutenue qu’aujourd’hui, l’argument de la vitesse et de la miniaturisation ne tiendra plus.

Il faut donc accepter aujourd’hui une pause dans notre recherche effrénée de la miniaturisation et notre volonté débridée d’augmenter la puissance des puces.

« Et l’Homme eut achevé au septième nanomètre son œuvre qu’il avait faite, et il se reposa de toute son œuvre qu’il avait faite. » (Moore 2:2)

Que la loi de Moore repose en paix.

La mort de David Bowie en a surpris plus d’un. Même les immortels du rock ne sont pas immortels dans la réalité. La mort est inéluctable.

Juste avant de mourir, Bowie nous offrait cette belle chanson, « Lazarus ».

Lazare est celui qui, dans le Nouveau Testament, se voit ressuscité par Jésus. Le seul mortel qui a vu la mort repoussée.

La technologie fera-t-elle de nous des Lazare?

lazare20

Aujourd’hui, la science laisse entendre que la mort serait « un problème technique ».

En effet, nous disons couramment que le « coeur flanche », que le « foie est dysfonctionnel » ou que le « cancer a frappé ».

Ce sont des expressions qui donnent à penser que la maladie et la mort sont en fait évitables, car elles sont vues comme des « problèmes techniques ». Et qui dit problème technique dit solution technique.

Dans notre monde très technophile, il n’en faut pas plus pour penser que « la mort peut être guérie ».

Les mortels que nous sommes aimeraient bien voir la technologie repousser la mort et faire de nous des Lazare technologiques.

« La mort n’a aucun sens »

Devinez qui se préoccupe de trouver une solution technique à la mort? Les géants et millionnaires de la technologie.

  • Peter Thiel, le cofondateur de PayPal, a donné en 2006 près de 3,5 millions de dollars américains à une équipe de recherche sur les façons de contrer le vieillissement et ses effets.
  • Larry Ellisson, fondateur d’Oracle, a investi depuis plus d’une décennie 430 millions de dollars américains dans la recherche contre le vieillissement . C’est lui qui répète que « la mort n’a aucun sens ».
  • Le Breakthrough Prize (section science de la vie), soutenu par Mark Zuckerberg, offre une récompense annuelle de 3 millions de dollars américains au chercheur qui découvre de nouvelles façons de repousser la mort.

Ces technophiles croient que la technique viendra à bout, même partiellement, des mécanismes qui nous font vieillir. Qu’elle ralentira le vieillissement.

Que ce soit par les puces, les algorithmes, les mégadonnées ou l’impression 3D d’organes, des entrepreneurs de tout acabit sont en train de plancher sur des solutions pour repousser la mort.

Les 5 moyens de repousser la mort

Le Washington Post a répertorié les technologies les plus plausibles pour repousser la mort.  J’en ai retenu cinq :

  1. Reprogrammation des cellules pour qu’elles sécrètent des anticorps.
  2. Transplantation de cellules souches de neurones pour contrer, notamment, la maladie de Parkinson.
  3. Impressions 3D d’organes pour remplacer les organes déficients.
  4. Culture d’os. Des cellules souches recréent un os cassé à partir d’un guide.
  5. Pilule antivieillissement. Pour redonner aux chromosomes vieillissants une seconde jeunesse.

Tout ça a l’air d’être de la science-fiction, mais ces recherches sont en cours.

Il ne faut évidemment pas mélanger succès en laboratoire et réussite à grande échelle.

Mais que la technologie soit sur le chemin d’une plus grande longévité n’est pas impossible. L’immortalité, même? On peut rêver, mais gardons les pieds sur terre.

L’angoisse de manquer le bateau

Du point de vue des techno-optimistes (et c’est dommage pour David Bowie et pour tous les autres), ceux qui meurent aujourd’hui sont comme ceux qui meurent de soif à quelques mètres d’une oasis.

Savoir qu’on reste sur le quai, comme Bowie, c’est tout de même angoissant, non? Verrons-nous le train d’une plus grande longévité passer sans pouvoir y monter nous aussi?

Il sera sûrement plus angoissant de savoir que ce seront, peut-être, les plus riches qui pourront se payer le billet avant les autres.

1pc2016

Martin LessardLes 2 technologies à surveiller en 2016

par

 publié le 4 janvier 2016 à 15 h 53

La convergence de plusieurs technologies va rendre accessibles la réalité virtuelle et l’intelligence artificielle qu’on croyait, jusqu’à tout récemment, du domaine de la science-fiction.

1- La réalité virtuelle grand public

Voilà bien des années qu’on nous la promet, celle-là. L’industrie avait tenté son coup durant les années 90, mais la technologie n’était pas à la hauteur des attentes. Elle veut éviter à tout prix de rater à nouveau son entrée sur le marché.

Après trois ans de perfectionnement, il semble que l’industrie est prête à lancer ses casques de réalité virtuelle en 2016. Des versions de développement circulaient déjà, mais cette année, c’est le baptême du marché grand public.

Les trois produits phares attendus sont :

  • Oculus Rift (sortie prévue dans la première moitié de 2016)
  • PlayStation VR (sortie prévue dans la première moitié de 2016)
  • HTC Vive (sortie à être annoncée au CES 2016)

On imagine très bien que les jeux vidéo seront le premier débouché pour ces casques. Mais il y a aussi des applications professionnelles très intéressantes que l’on peut envisager :

- Sport : Stanford propose une simulation en réalité virtuelle pour améliorer certaines techniques au football.

- Santé : agoraphobie ou peur de prendre l’avion? Avec un casque de réalité virtuelle, il est possible de contrôler exactement l’environnement pour faire vivre, à petites doses, puis de plus en en plus intensément des expériences pour vaincre la peur.

- Trouble du spectre autistique : la réalité virtuelle ne peut pas guérir l’autisme, mais elle peut améliorer certains comportements. Si un jeune autiste a des problèmes d’attention sociale (il ne fixe pas les personnes dans les yeux ou les ignore), il peut apprendre à entrer en contact avec les gens. Dans le monde virtuel, les personnages se présentant devant lui deviennent lentement transparents et disparaissent si l’enfant cesse de les regarder.

2 – L’intelligence artificielle à toutes les sauces

Après une décennie d’inertie, le grand projet de l’intelligence artificielle a été relancé en 2011 grâce à la percée de l’apprentissage en représentation profonde (deep learning). Montréal est d’ailleurs une plaque tournante de l’apprentissage en représentation profonde grâce à Yoshua Bengio, de l’Université de Montréal.

Avec l’apprentissage en représentation profonde, les programmes sont capables « d’apprendre à apprendre », à peu près comme le font nos cerveaux avec les synapses et les neurones qui s’alimentent les uns les autres.

Vous utilisez déjà d’une manière ou d’une autre des applications développées ou améliorées grâce à l’apprentissage en représentation profonde. Nommons Siri (d’Apple), Google Now, Cortana (de Microsoft) et Alexa (d’Amazon), qui s’améliorent d’année en année.

En décembre dernier, Google, Microsoft, Facebook et IBM ont déposé en code source ouvert la plupart de leurs technologies d’apprentissage en représentation profonde. L’initiative s’appelle OpenAI, une nouvelle organisation à but non lucratif, et veut rendre publiques les recherches sur l’intelligence artificielle et partager les brevets qui peuvent en découler.

Au lieu que chacun travaille dans son coin, les grandes firmes rendent maintenant leurs découvertes accessibles à tout le monde. Attendez-vous alors à voir une prolifération de systèmes qui utilisent d’une façon ou d’une autre les avancées en intelligence artificielle.

  • Jibo, le robot social capable de réagir aux émotions humaines.
  • Amazon Echo, le haut-parleur doublé d’un moteur de recherche vocal intelligent.
  • SmartThinQ hub de LG, qui offre les mêmes fonctions que l’Echo d’Amazon, mais avec la volonté de fédérer tous les objets connectés de la maison.

D’objets de curiosité, ces nouveaux appareils connectés en permanence semblent vouloir devenir nos gestionnaires de notifications et d’agenda, pour le meilleur ou pour le pire.

Le traitement de l’information en temps réel est assez bien maîtrisé, et les prochaines innovations viendront du côté du décodage de l’émotion.

Les ordinateurs sont maintenant en mesure de détecter notre état émotionnel, grâce aux caméras plus précises et à la reconnaissance faciale et vocale.

Les chercheurs étudient comment cette nouvelle connaissance peut être utilisée dans l’enseignement, pour traiter la dépression, pour prédire avec précision des diagnostics médicaux et améliorer le service à la clientèle ainsi que les achats en ligne.

Du point de vue des machines, décoder nos émotions, c’est accéder au coeur de ce qui les rendra plus humaines.

Martin LessardLi-fi, l’avenir lumineux du sans-fil

par

 publié le 8 décembre 2015 à 14 h 08

L’acronyme signifie « Light Fidelity » et est un clin d’oeil à wi-fi et hi-fi (haute-fidélité).

Source PureLifi.com

Source PureLifi.com

Le li-fi est un réseau optique composé de simples ampoules DEL qui permettent, selon les derniers tests, de télécharger des données jusqu’à 1Gb/s, c’est-à-dire de 10 à 100 fois plus vite qu’une borne wi-fi.

Alors que votre borne wi-fi utilise la partie radio du spectre électromagnétique, le li-f-, lui, utilise le spectre visible du spectre électromagnétique, c’est-à-dire la lumière, les ondes qui s’étendent de la couleur bleue (670 THz) à la couleur rouge (480 THz).

La technique de transmission est la même que pour la voix sur une radio AM. En modifiant l’amplitude de l’onde de la lumière, on génère des pulsations, comme un code morse. Ça donne un scintillement très rapide, imperceptible à l’œil, mais qu’un capteur optique peut décoder aisément.

Il n’est pas nécessaire d’être directement sous la lumière : la réverbération sur les murs de la pièce est suffisante, et ce, jusqu’à une dizaine de mètres.

Sur une courte distance, le réseau li-fi risque de devenir une solution sans fil très efficace, car il offre un accès haute vitesse très localisé où l’on peut connecter plusieurs appareils en même temps

Les avantages du li-fi

Le premier avantage du li-fi tient dans sa plus grande capacité à supporter un fort achalandage.

Si vous avez déjà essayé de vous connecter à un réseau wi-fi ou à un réseau 3G/4G en même temps que tout le monde, vous savez qu’un tel réseau ralentit beaucoup et devient, parfois, inutilisable.

Le li-fi vise à désengorger, dans des lieux précis, un réseau wi-fi public qui deviendrait vite saturé, comme un magasin, une salle de concert ou un aéroport. Dans un avion, par exemple, avec des ampoules connectées, les compagnies aériennes pourraient offrir un réseau sans-fil beaucoup plus robuste.

Sa faible portée offre aussi une sécurité contre le piratage ou les interférences.

En effet, si vous avez du wi-fi à la maison, il n’est pas rare de voir les réseaux des voisins. Avec le li-fi, la lumière ne traverse pas les murs, il est donc impossible d’accéder illégalement au réseau de l’autre côté de la paroi.

De plus, le li-fi n’est pas sensible aux interférences des autres réseaux. Le wi-fi, lui, est rapidement perturbé quand il y a trop de réseaux à proximité.

Et dans un hôpital (où il est interdit d’utiliser son cellulaire), l’usage du li-fi permettrait d’accéder au réseau sans-fil sans créer d’interférence avec les appareils médicaux.

Le port de téléchargement rapide

Source HSC.com

Source HSC.com

Si l’utilisation du li-fi semble simple, sa mise en place demande un peu plus de préparation.

Le li-fi utilise certes des ampoules DEL, peu chères et en vente partout, mais elles doivent être vissées à des douilles connectées.

Pour avoir de la très haute vitesse dans nos plafonniers, il faut installer des fils (des RJ45 PoE) qui se connectent avec les douilles pour transformer les ampoules en émetteur.

Les compagnies et les commerces seront probablement les premiers à déployer un tel réseau, car le filage est souvent déjà en place.

Le li-fi ne remplacera pas les autres réseaux, mais il en sera un très bon complément.

Mon intuition me dit qu’il trouvera une place dans un coin de la maison, comme la télévision, le micro-onde ou l’imprimante.

On peut très bien imaginer qu’avec un li-fi à 1Gb/s, on puisse, un jour, avoir une lampe connectée directement à un routeur. Il suffirait de s’y rendre pour déposer son cellulaire ou son portable sous la lumière et hop! un fichier énorme serait téléchargé.

Dans des magasins de vidéos, une telle borne à très haute vitesse permettrait aux consommateurs de télécharger sur place leur achat. Avec l’arrivée annoncée des vidéos en 4K, ce ne sera pas de refus.