Billets classés sous la catégorie « Futur »

Martin LessardAvis de tempête solaire

par

 publié le 11 septembre 2014 à 16 h 52

Une éruption solaire jugée « extrême » a été repérée hier et pourrait affecter le réseau électrique, la communication satellite et les transmissions radio à partir de vendredi et durant le week-end.

Dans cette image, on voit que l’explosion gigantesque sur ​​le Soleil (boule blanche au centre) pointait en plein dans notre direction, et il est très probable qu’une partie du nuage de plasma viendra nous affecter demain et les jours suivants.

Source : NOAA NWS Space Weather Prediction Center

Source : NOAA NWS Space Weather Prediction Center

Une tempête solaire peut perturber la sphère magnétique de la Terre, ce qui conduit parfois à des problèmes temporaires sur les réseaux électriques. En mars 1989, une éruption du Soleil avait réussi à faire tomber tout le réseau électrique d’Hydro-Québec.

Les scientifiques ne s’inquiètent pas outre mesure cette fois-ci. Sur une échelle de cinq, celle-ci est de niveau deux, et il est plus probable que ce soit sous la forme d’aurores boréales que la tempête soit le plus remarquée.

Mais j’ai comme l’impression que ce genre d’« avis de tempête solaire » pourrait à l’avenir être pris au sérieux par l’ampleur de ses conséquences à une époque où tout le monde utilise les télécommunications.

Une tempête solaire à l’ère numérique

Les tempêtes solaires, qui dans un monde anténumérique seraient passées inaperçues, montrent en creux un type de technologie auquel nous sommes devenus accros et duquel nous serons encore plus dépendants demain : le GPS.

Le GPS est ce système de localisation mondial basé sur des signaux transmis par des satellites. Par triangulation de ces signaux, on arrive à se repérer exactement sur Terre. La précision peut aller jusqu’à quelques millimètres près avec un certain matériel. Dans un usage courant, la précision est de quelques mètres.

Lors d’une tempête solaire qui affecterait le GPS (disons une de niveau cinq), une différence de précision d’une dizaine de mètres ou même une perte de signal est tout à fait envisageable.

Celui qui utilise un GPS pour se rendre d’une ville à l’autre ne sera pas très touché.

Par contre, pour l’agriculture moderne, on a besoin d’une plus grande précision pour contrôler des machines automatisées dans les champs.

Je vois aussi deux autres endroits où une tempête solaire pourrait toucher davantage le grand public (outre les pannes de courant) :

La voiture autonome

La voiture autonome, qui devrait arriver dans nos rues d’ici la fin de cette décennie, se basera sur le GPS.

On voit tout d’un coup le potentiel dommageable d’une tempête solaire de type cinq pour un réseau routier qui posséderait plein de ces voitures autonomes. On ne tient pas à ce qu’une imprécision de plusieurs mètres fasse rouler ces voitures sur les trottoirs.

Heureusement, ces voitures autonomes ne se basent pas entièrement sur le GPS et peuvent se diriger aussi grâce à des caméras et des capteurs.

L’internet des objets

Il y a aussi fort à parier que la montée de l’internet des objets nous rendra encore plus accros au géopositionnement.

On peut imaginer que la vie domestique de demain exigera une garantie de précision du GPS en tout temps pour la coordination des robots domestiques ou autres appareils mobiles ou non.

Le GPS, aussi révolutionnaire soit-il, a ses limites. Déjà que les signaux ne peuvent être reçus sous terre ou sous l’eau, si la précision se dégrade ou devient indisponible pendant les tempêtes solaires, il faut commencer à penser à des solutions de rechange.

La DARPA et le post-GPS

Cette semaine, la DARPA a déclaré vouloir explorer de nouvelles technologies de positionnement qui ne seraient pas basées sur le GPS.

Sachant que notre demande en précision de géolocalisation augmentera dans les prochaines années, et en sachant aussi que des tempêtes solaires de niveau 5 arrivent environ 4 fois tous les cycles de 11 ans, on voit qu’il ne s’agit que d’une seule fois, comme aujourd’hui (où la conjoncture place la Terre sur le parcours d’une éruption solaire), pour comprendre qu’un jour, nous serons réellement affectés par une tempête solaire.

Ce jour-là, les tempêtes solaires entreront dans les bulletins météo…

Maxime JohnsonAperçu du casque de réalité virtuelle Samsung Gear VR

par

 publié le 8 septembre 2014 à 12 h 31

Samsung Gear VR

Samsung a dévoilé la semaine dernière, au salon IFA de Berlin, son Gear VR, un casque de réalité virtuelle qui renferme un téléphone intelligent. Un concept qui devrait offrir une expérience plus limitée que les autres casques à venir, mais possiblement à une fraction du prix.

Comment ça marche?
Le nouveau casque de Samsung est un appareil assez simple, où le logiciel nécessaire, l’écran et la plupart des autres composantes se retrouvent dans un téléphone intelligent, le Galaxy Note 4, et non dans le casque en tant que tel.

Le casque comporte quand même quelques éléments d’électronique, comme un capteur de mouvements supplémentaire et un pavé tactile sur la tempe de l’utilisateur, mais il s’agit principalement d’un boîtier de plastique simple, avec deux lentilles, qui permettent à l’utilisateur de voir l’écran du Galaxy Note comme s’il s’agissait d’un téléviseur de 175 pouces placé à 2 mètres devant lui.

L’image s’adapte ensuite aux mouvements de sa tête, ce qui permet par exemple de regarder un film à 360 degrés, de jouer à un jeu vidéo immersif, d’apprendre des choses grâce à un logiciel éducatif spécialisé, etc.

Les avantages de la réalité virtuelle mobile
Samsung Gear VR ouvert

Le concept de Samsung offre plusieurs avantages importants par rapport aux deux autres principaux casques de réalité virtuelle à venir sur le marché, soit l’Oculus Rift et le Sony Morpheus.

Parmi les avantages intéressants, notons que le casque peut être utilisé seul, sans avoir besoin d’une console de jeux vidéo ou d’un ordinateur. Le tout est donc moins encombrant, et il est plus facile de s’en servir chez des amis, en vacances ou un peu partout dans la maison.

Le principal avantage est toutefois son prix. Aucun montant n’a été annoncé pour l’instant, mais considérant la simplicité du casque, celui-ci devrait être sensiblement moins cher que les casques plus complexes (une première rumeur mentionne un prix de 199 $, mais il vaut mieux prendre ce genre d’information avec un grain de sel pour l’instant).

Dans tous les cas, un ensemble pourrait aussi être proposé par les opérateurs à l’achat d’un nouveau téléphone Galaxy Note 4, ce qui pourrait diminuer le prix et faciliter encore plus la décision de l’acheter.

Les inconvénients de la réalité virtuelle mobile
La solution de Samsung n’est pas parfaite, toutefois. Pour fonctionner sans provoquer de nausées, la réalité virtuelle exige que les jeux et les applications soient le plus fluides possible, avec un temps de latence minime.

Pour atteindre de bonnes performances, les développeurs doivent souvent réduire la qualité des graphiques dans les jeux, même à partir d’un PC puissant ou d’une console de jeux vidéo.

Un téléphone intelligent, avec sa puissance beaucoup plus limitée qu’une PlayStation 4 ou qu’un PC haut de gamme, risque donc d’éprouver encore plus de difficultés à gérer les applications de réalité virtuelle plus poussées, tout particulièrement les jeux 3D.

Pour l’instant, le casque de Samsung n’offre pas non plus certaines des fonctionnalités plus avancées du projet Morpheus, de Sony et de l’Oculus Rift, notamment le positionnement du joueur à l’aide d’une caméra extérieure.

Bref, le Samsung Gear VR pourrait offrir une expérience de réalité virtuelle plus limitée que ses concurrents.

Premières impressions
J’ai eu l’occasion d’essayer le Samsung Gear VR au salon IFA 2014 de Berlin la semaine dernière. Pour l’instant, Samsung limite sa démonstration à des films, et ne présente pas de jeux vidéo.

L’expérience était plutôt convaincante. Le casque de Samsung paraît particulièrement léger, et le tout était fluide. La résolution perçue semblait comparable à celle des derniers modèles de l’Oculus Rift, mais l’angle de vue était toutefois un peu plus petit.

Oui, la qualité d’utilisation s’annonce plus limitée qu’avec l’Oculus Rift et le Sony Morpheus, mais sachant que le prix de l’appareil de Samsung sera sans énormément inférieur, il s’agit probablement d’un compromis raisonnable pour beaucoup d’utilisateurs. Le Sony Gear VR pourrait d’ailleurs aider la réalité virtuelle à décoller pour le grand public, et non seulement pour les amateurs de jeux vidéo avertis.

Un partenariat-surprise
Détail intéressant, tout le volet logiciel du casque de réalité virtuelle de Samsung a été développé en collaboration avec Oculus, l’entreprise qui pourrait pourtant être considérée comme son principal concurrent dans le monde de la réalité virtuelle.

Un partenariat surprenant, mais Oculus a, après tout, tout à fait avantage à ce que l’industrie de la réalité virtuelle soit en bonne santé. En si l’on considère les partenariats variés que Samsung pourra développer pour fournir du contenu à sa plateforme (contenu qui sera facilement adaptable pour l’Oculus Rift par la suite), la décision prend tout son sens.

Il faut aussi considérer que le partenariat entre Oculus et Samsung précède l’achat d’Oculus par Facebook plus tôt cette année. L’argent pourrait donc aussi avoir été un facteur déterminant dans la naissance de cette alliance.

Comment se le procurer
Le casque Samsung Gear VR devrait être offert dans certains pays d’ici la fin de l’année pour un prix qui n’a pas encore été annoncé. On n’a toujours pas confirmé s’il serait offert au Canada.

Martin LessardDARPA A2P : des atomes à notre service?

par

 publié le 5 septembre 2014 à 14 h 51

La DARPA, l’agence de recherche et développement des militaires américains, se lance dans un nouveau programme, Atom to Product (A2P), des atomes aux produits. La DARPA compte en donner tous les détails la semaine prochaine.

A2P cherche à développer la miniaturisation extrême et les méthodes d’assemblage pour produire de nouveaux types de produits ayant des caractéristiques nouvelles.

Source DARPA

Source DARPA

À l’échelle nanométrique, plusieurs matériaux dans notre environnement présentent des caractéristiques très différentes.

Il faut comprendre qu’à petite échelle, le rapport relatif entre les forces fondamentales change radicalement, permettant l’apparition de certaines propriétés de la matière inconnue à notre échelle.

À cette échelle, les réactions électriques, l’adhésivité, les changements rapides de température ou l’absorption de la lumière diffèrent de ce qu’on observe à notre échelle, ce qui offre des occasions tout à fait nouvelles, révolutionnaires même.

Exemples  de propriétés à l’échelle nanoscopique

1) Superhydrophobie

Une structure nanométrique présente par exemple la possibilité d’être superhydrophobe, c’est-à-dire que sa surface devient extrêmement difficile à mouiller.

Les gouttes d’eau perlent sur la surface quand elles entrent en contact avec celle-ci à un certain angle.

(En passant, la firme Belge Nanex, experte mondiale en la matière, vient d’annoncer que son siège social au Canada sera installé à Montréal.)

2) Superparamagnétisme

Dans des particules de taille suffisamment petite, l’aimantation peut se renverser spontanément sous l’influence de la température ou peut être activée avec un champ magnétique.

C’est surtout comme ferrofluide, un liquide pouvant être magnétisé, que le superparamagnétisme est utile. Il permet d’améliorer le transfert thermique au sein des enceintes audio de haute qualité ou, en médecine, de détecter des maladies (les ferrofluides se fixent sur les cellules malades).

3) Électrocinétique

Des chercheurs ont réussi à démontrer comment l’eau salée circulant rapidement sur la plaque de graphène (un moustiquaire de carbone de l’épaisseur de quelques atomes) réussit à générer de l’électricité!

Le voltage généré est de l’ordre des 30 millivolts : c’est-à-dire 20 fois moins qu’une pile AA, mais c’est potentiellement suffisant pour des objets miniatures à faible consommation (senseur atmosphérique, détecteur, etc.)

Demain, l’infiniment petit à notre service?

La DARPA doit surmonter deux principaux défis pour réussir à passer des atomes aux produits :

  • Le premier défi étant que les propriétés « révolutionnaires » à l’échelle nanométrique se transposent à des échelles plus grandes. Si l’on ne peut réussir à transférer à notre échelle les bénéfices des prouesses qui s’observent au niveau atomique, bye bye les bonnes occasions.
  • Le second défi consiste à être capable d’assembler les éléments ensemble. Fabriquer un type d’élément est une chose (un interrupteur logique par exemple), mais qu’il puisse fonctionner dans un ensemble plus vaste est une tout autre paire de manches.

Ce n’est pas la première initiative que la DARPA lance, et toutes n’ont pas des retombées immédiates.

Du côté civil, à terme, l’effet est toutefois majeur, notamment du côté de l’électronique, mais aussi sur tous les aspects de nos vies.

Pensez à Internet ou au GPS, issus chacun d’un projet initialement lancé par la DARPA. Nous vous avons déjà mentionné, sur Triplex, leurs avancées en cours sur les robots. Ce sera le prochain grand changement.

En regardant sur quoi la DARPA travaille, on se demande en fait sur quoi elle ne travaille pas.

Source DARPA

Source DARPA

Le futur, à ce qu’il semble, se trouve dans leur laboratoire.

Martin LessardGartner 2014 : ce qui monte, ce qui tombe

par

 publié le 11 août 2014 à 12 h 44

Chaque année, la firme de recherche Gartner publie un tableau du cycle des technologies où les tendances de l’heure sont placées sur une courbe de maturité.

Ce tableau offre en un coup d’oeil la trajectoire présente et future de ce qui passionne le monde techno.

Celui de 2014 est sorti ce matin. Regardons ce qui a changé depuis l’an passé.

Le tableau 2014 de Gartner
« Hype Cycle for Emerging Technologies »

HC_ET_2014

Ceux qui descendent

Parmi ceux qui se trouvaient placés au « pic de leur buzz » (Peak of inflated expectations) en 2013 et qui empruntent maintenant le chemin de la « descente en enfer » (Trough of disillusionment), on retrouve la ludification, l’impression 3D et les données volumineuses, le fameux « big data ».

hcssd

Ludification

La ludification (en anglais, gamification) est la promesse que, par l’adjonction de certains principes du jeu, un certain travail ou apprentissage sera plus facile, ou du moins plus agréable. Quand, dans le dernier mois seulement, on voit des articles parler de l’usage de la ludification pour le dentiste, pour l’innovation ou comme mesure de performance dans la gestion des employés, on devine qu’on a atteint un point de saturation.

Impression 3D

L’impression 3D, aussi fabuleuse que puisse être cette technologie, n’a pas besoin d’aide pour susciter elle-même des désillusions pour le grand public. La chute des prix rendra son accès plus démocratique, mais le besoin d’imprimer de petites pièces en plastique ne suivra pas une courbe inverse à son prix. Gartner se s’y trompe pas quand elle sépare l’impression 3D pour l’entreprise de celle du grand public. Sa place est surtout dans le monde de l’entreprise et, d’ailleurs, Gartner lui prédit une maturité d’ici deux à cinq ans pour ce domaine.

Données volumineuses

Les données volumineuses, les lecteurs de Triplex n’en seront pas surpris, entament cette année leur « descente en enfer » (Trough of disillusionment). On avait ici même souligné le tournant lorsque Google Flu Trends avait été critiqué pour ses erreurs d’évaluation. C’est par le truchement de l’échec du parangon du big data qu’on a pu mesurer les attentes démesurées qui entourent encore cet amalgame d’outils, de processus et de traitements des données massives, et en temps réel, pour extraire des informations utiles.

L’inflation des attentes et l’effet de mode entourant ces trois technologies vont maintenant se résorber pour revenir à un niveau plus réaliste d’ici deux à cinq ans, toujours selon Gartner.

Ceux qui montent

Tiens, tiens, l’Internet des objets! Gartner ne se trompe pas en le mettant ainsi au sommet. L’attention médiatique à ce sujet est à son comble cette année.hcsstLa promesse de ces objets connectés communiquant ensemble est la véritable innovation de cette décennie. Après la montée fulgurante des médias sociaux, où nous nous sommes tous retrouvés connectés, ce sont maintenant les objets, tous les objets, qui sont potentiellement candidats à une interconnexion tous azimuts.

Mais, comme il est à son pic, il faut s’attendre qu’il devra inévitablement se mesurer au triple écueil de l’interconnexion, de la sécurité et de la vie privée.

Dans Triplex, on avait déjà signalé la création de l’Open Interconnect Consortium (OIC), qui élaborera des spécifications et des programmes de certification pour la connexion sans fil entre n’importe quels types d’appareils qui feront partie de l’Internet des choses connectées. L’écueil de l’interconnexion sera vraisemblablement résolu d’ici la fin de la décennie.

Mais la sécurité? Que se passe-t-il quand on se fait pirater son thermostat? (La semaine dernière, des pirates à la conférence Black Hat à Las Vegas ont réussi à pirater le Nest de Google).

Et la vie privée? Veut-on que des données intimes de notre vie intra muros soient accessibles à l’extérieur? (Evgeny Morozov le souligne dans le Monde diplomatique du mois d’août.)

À long terme, l’Internet des objets profitera de sa descente programmée en enfer (après le pic, la chute) pour résoudre ces problèmes fondamentaux.

Ceux à surveiller

Les tableaux de Gartner, dont c’est le 20e anniversaire cette année, permettent toujours de relativiser l’importance des nouvelles technologies tout en montrant que certaines sont arrivées à maturité et que d’autres émergent.

hcssu3

Reconnaissance automatique de la parole

La reconnaissance de la parole (Speech recognition) sera prête d’ici deux ans, selon Gartner. Cette technologie permet la retranscription de discours en texte écrit. Attendez-vous bientôt à voir l’indexation massive des vidéos en ligne : on pourra retrouver un segment à partir d’une recherche textuelle.

Analyse en temps réel en mémoire

L’analyse en temps réel en mémoire (In-memory analytics) est sortie du purgatoire pour entrer dans la « remontée héroïque » (Slope of enlightment). Cette technologie permet aux systèmes d’entreprises d’accélérer le processus d’analyse en accédant directement à la mémoire vive, sans passer systématiquement par les bases de données. C’est un verrou important pour le big data.

L’interface cinétique

L’interface cinétique (Gesture control), entre aussi dans cette courbe montante et on peut s’attendre à pouvoir commander une interface par une gestuelle précise d’ici quelques années, faisant ainsi passer le film de science-fiction « Rapport minoritaire, où Tom Cruise contrôle un ordinateur par la parole et les gestes, pour un documentaire (lire sur Triplex : Le « Rapport minoritaire » n’est plus une fiction)

« Smart advisors »

Ajoutés à la liste cette année, les « smart advisors », de puissants systèmes à la Watson, ont été placés en début du « pic de leur buzz ».

hcssu2

Jusqu’en 2020, Gartner voit s’épanouir une prolifération d’assistants numériques, sensibles au contexte, qui, par l’entraînement et l’infonuagique, seront à même de nous guider dans certaines décisions. Inutile de dire que cette promesse est attendue depuis les débuts de l’informatique et qu’il semble que nous n’ayons jamais été aussi près d’y accéder.

Mais, n’est-ce pas, il reste encore l’étape de la « descente en enfer »…

En écho au billet de Nadia sur les « smart guns », je pose la question : y a-t-il de la place pour l’éthique quand il s’agit de programmer des algorithmes?

La Marine américaine a récemment offert une subvention de 7,5 millions de dollars sur 5 ans à des chercheurs universitaires pour explorer les façons de donner un certain « sens moral » aux robots autonomes de demain.

Des « robots létaux autonomes » existent déjà, mais ils sont plutôt semi-autonomes quand il s’agit de prendre la décision de tirer ou non sur un humain.

Les « lois de la guerre »  impliquent des règles et des règles, ça se programme. Cette question éthique découle d’un problème de responsabilité juridique : « Si un robot tue un humain, qui est le responsable? »

warfare

Un débat a eu lieu à Genève la semaine dernière, dans le cadre d’une rencontre de l’ONU sur les armes de guerre. Même encore hypothétique, l’avènement des « robots-tueurs » doit être balisé pour éviter de se retrouver sans code éthique comme avec les drones.

Mais les militaires ne pensent pas nécessairement à des « robots-tueurs » quand ils explorent l’aspect moral dans les programmes informatiques.

Il faut savoir que les algorithmes sont partout et qu’ils prennent de plus en plus de décisions.

Par exemple, un logiciel militaire pourrait être amené à gérer l’évacuation de blessés. Qui va-t-on évacuer en premier? Qui va-t-on traiter en premier? Y a-t-il une pondération à faire entre civils et militaires, entre soldats et gradés, entre amis ou ennemis?

C’est donc les choix moraux de ceux qui vont implanter le programme dans le robot qui vont être exécutés par la machine.

Un débat technoéthique qui dépasse largement le domaine militaire

Il y aura des voitures autonomes sur nos routes dans un avenir prévisible.

S’il arrive un incident imprévu, est-ce que la voiture autonome aura à faire un choix éthique entre vous sauver la vie ou celles des malheureux piétons sur le côté de la route?

Cette question est une question classique de morale : elle est connue sous le nom de Dilemme du tramway.

Elle pourrait se résumer ainsi : si par un malheureux hasard, le véhicule autonome doit choisir entre :

A) s’écraser sur un mur et tuer tous les passagers du véhicule?
B) ou rouler sur le trottoir et écraser des piétons?

Que doit-on privilégier, A ou B?

1024px-Car_crash_1

Cette (pénible) question théorique rencontrera bientôt des questions pratiques très concrètes.

À quoi pensiez-vous durant tout ce temps?

Il y a une différence entre laisser faire quelque chose (A : s’écraser contre un mur) et tuer volontairement (B : rouler sur le trottoir). Le véhicule se dirigeait déjà vers le mur, alors pourquoi changer le cours des choses?

Ce qu’il faut comprendre, ici, c’est que souvent, dans ce genre de situation, un conducteur humain n’a qu’une fraction de seconde pour choisir A ou B. On peut lui pardonner son choix.

Mais une machine, elle, en une milliseconde, elle a le temps de calculer toutes les possibilités!

Le logiciel de la voiture autonome n’aura pas conscience de prendre une décision morale, il va simplement suivre les instructions, une hiérarchie de décisions faite lors de l’encodage par les programmeurs.

Si on changeait la voiture contre un autobus bondé de jeunes enfants et qu’on ne mettait qu’une seule personne sur le trottoir, est-ce qu’on changerait d’avis? Est-ce que les journaux du lendemain de l’accident ne vont pas accuser le constructeur si le programme laisse tous les enfants mourir?

Le programme de la voiture autonome a vu tout venir : un tel drame routier se joue en moins d’une seconde, temps très court pour nous, humains, mais tout de même long pour un processeur.

Durant ce temps, un processeur peut facilement avoir 200 millions de cycles (d’instructions élémentaires par seconde). À l’échelle humaine, à titre simplement comparatif, posons qu’un seul de ces cycles prenne 0,1 milliseconde de notre temps (temps infiniment plus court qu’un réflexe humain évalué à 200 millisecondes): cela fait tout de même presque 5 heures et demie!

C’est amplement suffisant pour passer à travers un arbre de décisions et choisir la conclusion fatidique.

C’est dans ce « temps numérique » que pourraient s’insérer demain des décisions éthiques aux conséquences très concrètes. Y aura-t-il une hiérarchie différente pour les voitures de luxe ou selon les quartiers? Qui décidera de la pondération?

Et vous, accepteriez-vous un supplément pour que le fabricant de votre voiture autonome vous programme la solution B?