Archives de l'auteur

Martin LessardUne puce radio sans pile

par

 publié le 18 septembre 2014 à 10 h 18

L’Internet des objets, on en parle souvent ici, est cette promesse d’un monde où les objets, tous les objets, pourraient être connectés.

Miniaturisation aidant, les puces deviennent de plus en plus petites et de moins en moins chères : on imagine très bien qu’on pourrait un jour équiper tous les objets de notre quotidien d’une puce dotée d’une connexion et capable d’envoyer et de recevoir des commandes.

Dans un avenir pas si lointain, des milliards d’objets pourraient donc ainsi être connectés avec ces puces miniatures.

Mais il y a au moins deux autres défis de taille pour y arriver : ces puces ne doivent pas coûter cher ni être gourmandes en énergie.

Une puce radio à rétrodiffusion ambiante

L’université de Standford a annoncé cette semaine avoir réussi à faire sauter ces deux derniers verrous.

Ses chercheurs ont trouvé la façon d’avoir une puce de la taille d’une fourmi qui coûte à peine un cent et qui fonctionne sans source d’énergie directe!

pucestandford

Pour alimenter la puce, les chercheurs utilisent les ondes radio existantes : cellulaires, télé ou wi-fi. Cette méthode, appelée rétrodiffusion ambiante (ambiant backscatter), fournit suffisamment d’énergie pour que la puce puisse émettre et recevoir des messages.

Cette puce de Standford demande si peu d’énergie pour fonctionner que, si on la branchait avec une pile AAA, elle fonctionnerait 100 ans!

Stanford semble donc avoir réussi à faire sauter les trois verrous à la fois qui ouvrent la voie à l’internet des objets (faible coût, faible taille, faible consommation).

Ils ne sont pas les premiers à travailler sur un tel projet, mais, à ma connaissance, ils sont les seuls à avoir réussi à faire sauter les trois verrous à la fois.

Améliorations à venir

Il y a encore des améliorations à faire, notamment pour augmenter la portée et, surtout, pour assurer une protection contre les pirates informatiques.

Évidemment, pour l’instant, pas question de télécharger des vidéos YouTube, car la vitesse de transfert est de 1Kb/sec, ni de communiquer sur une longue distance (environ deux mètres dans les essais).

L’antenne sur la puce mesure un dixième de la taille d’une antenne wi-fi et fonctionne à la vitesse incroyable de 24 milliards de cycles par seconde. Mais la puce ne peut pas encore traiter des signaux qui oscillent aussi rapidement. On voit cependant que le potentiel de transmettre beaucoup plus d’informations est là.

Pour l’heure, un essaim de ces petites puces pourrait très bien être utilisé, par exemple comme capteur environnemental, en entreprise ou dans les hôpitaux. En plaçant les puces toutes à proximité, elles seraient capables de faire circuler de petits messages binaires pour surveiller ou contrôler leur environnement.

À lire aussi sur Triplex :

Reconnaître les mouvements par ondes télé interposées

Les ampoules connectées

10 microéoliennes sur un grain de riz

Martin LessardComment vérifier la vitesse d’un site web?

par

 publié le 15 septembre 2014 à 18 h 21

Les démangeaisons : il s’agit d’en parler pour que l’on se mette à se gratter.

Certains ont l’impression que lors du lancement d’un nouvel iPhone, le leur devient subitement plus lent.

Quand Catherine Mathys nous signale dans Triplex qu’il existe un « jour du ralentissement web » (Internet Slowdown Day), nous avons l’impression que ce jour-là, tous les sites sont lents.

Quand j’ai parlé de l’alerte de tempête solaire imminente, une tempête capable de perturber nos gadgets technos et nos télécommunications, certains m’ont écrit qu’ils ont perçu que leur fournisseur d’accès était plus lent que d’habitude.

Bien sûr, tout cela n’est qu’hallucination. Mais existe-t-il une façon de savoir, par exemple, quand un site est réellement lent?

Des outils en ligne pour vous aider

La façon la plus rationnelle de vérifier si un site web est lent, c’est de le comparer avec d’autres sites et de le tester à partir d’un autre point que son propre point d’accès à Internet.

Avant toute chose, il faut vérifier s’il est possible que le problème soit de votre côté, et non sur l’ensemble du réseau.

1) Testez votre connexion

En cliquant ici, vous pouvez tester votre bande passante : speedtest.net

speedtest

Le débit de votre connexion est exprimé en kilobits transférés par seconde (kbit/s). Il doit normalement correspondre au débit que votre fournisseur vous a promis.

Si tout va bien, vous pourrez passer aux autres tests.

2) Testez si la page est hors connexion pour tous

Le fait que vous ne puissiez pas accéder à une page peut s’expliquer de multiples façons, mais il se peut que ce ne soit pas la page en question la source du problème.

Un moyen de le savoir est de vérifier si, par un autre chemin, on tombe sur le même problème.

Le site « down for everyone or just me? » permet de voir si vous êtes le seul à avoir des problèmes avec la page web.

speedtest

Le site vous dira si le problème est simplement de votre côté ou s’il est constaté par tous (du moins par ce site et vous).

3) Tester si le site est lent

Il faut distinguer ici le « serveur » de son « contenu ».

On peut faire l’analogie avec se rendre au magasin (le temps d’accès à un serveur) et se faire servir au comptoir (accéder à son contenu). Il faut séparer ces deux temps.

Le service de Ping est un service qui vérifie le temps d’accès à un serveur. Accéder à son contenu est une autre paire de manches.

Ping calcule en millisecondes le temps pour se rendre au serveur (au magasin) et varie parfois beaucoup, voilà pourquoi il faut tester plusieurs fois et prendre une moyenne.

Si vous êtes sur Windows, vous avez tous une application qui s’appelle Command Prompt. Sur Mac ou Linux, il s’appelle Terminal.

Il faut simplement l’ouvrir et écrire « Ping » et l’adresse du site web. Exemple :

myping

Et la réponse sera quelque chose comme :

pingtriplex

Si vous préférez, il existe des outils en ligne.

Moi, j’aime bien ping.eu, pour sa simplicité:

ping-eu-srcLes valeurs obtenues sont en millisecondes : c’est en comparant avec d’autres sites que vous aurez un aperçu de leur vitesse d’accès relative.

Vous pourrez ainsi avoir une idée de quel serveur est plus le rapide et quel autre est le plus lent à un moment donné.

Quand on vous parlera de lenteur sur le web la prochaine fois, vous aurez des outils pour vérifier.

Martin LessardAvis de tempête solaire

par

 publié le 11 septembre 2014 à 16 h 52

Une éruption solaire jugée « extrême » a été repérée hier et pourrait affecter le réseau électrique, la communication satellite et les transmissions radio à partir de vendredi et durant le week-end.

Dans cette image, on voit que l’explosion gigantesque sur ​​le Soleil (boule blanche au centre) pointait en plein dans notre direction, et il est très probable qu’une partie du nuage de plasma viendra nous affecter demain et les jours suivants.

Source : NOAA NWS Space Weather Prediction Center

Source : NOAA NWS Space Weather Prediction Center

Une tempête solaire peut perturber la sphère magnétique de la Terre, ce qui conduit parfois à des problèmes temporaires sur les réseaux électriques. En mars 1989, une éruption du Soleil avait réussi à faire tomber tout le réseau électrique d’Hydro-Québec.

Les scientifiques ne s’inquiètent pas outre mesure cette fois-ci. Sur une échelle de cinq, celle-ci est de niveau deux, et il est plus probable que ce soit sous la forme d’aurores boréales que la tempête soit le plus remarquée.

Mais j’ai comme l’impression que ce genre d’« avis de tempête solaire » pourrait à l’avenir être pris au sérieux par l’ampleur de ses conséquences à une époque où tout le monde utilise les télécommunications.

Une tempête solaire à l’ère numérique

Les tempêtes solaires, qui dans un monde anténumérique seraient passées inaperçues, montrent en creux un type de technologie auquel nous sommes devenus accros et duquel nous serons encore plus dépendants demain : le GPS.

Le GPS est ce système de localisation mondial basé sur des signaux transmis par des satellites. Par triangulation de ces signaux, on arrive à se repérer exactement sur Terre. La précision peut aller jusqu’à quelques millimètres près avec un certain matériel. Dans un usage courant, la précision est de quelques mètres.

Lors d’une tempête solaire qui affecterait le GPS (disons une de niveau cinq), une différence de précision d’une dizaine de mètres ou même une perte de signal est tout à fait envisageable.

Celui qui utilise un GPS pour se rendre d’une ville à l’autre ne sera pas très touché.

Par contre, pour l’agriculture moderne, on a besoin d’une plus grande précision pour contrôler des machines automatisées dans les champs.

Je vois aussi deux autres endroits où une tempête solaire pourrait toucher davantage le grand public (outre les pannes de courant) :

La voiture autonome

La voiture autonome, qui devrait arriver dans nos rues d’ici la fin de cette décennie, se basera sur le GPS.

On voit tout d’un coup le potentiel dommageable d’une tempête solaire de type cinq pour un réseau routier qui posséderait plein de ces voitures autonomes. On ne tient pas à ce qu’une imprécision de plusieurs mètres fasse rouler ces voitures sur les trottoirs.

Heureusement, ces voitures autonomes ne se basent pas entièrement sur le GPS et peuvent se diriger aussi grâce à des caméras et des capteurs.

L’internet des objets

Il y a aussi fort à parier que la montée de l’internet des objets nous rendra encore plus accros au géopositionnement.

On peut imaginer que la vie domestique de demain exigera une garantie de précision du GPS en tout temps pour la coordination des robots domestiques ou autres appareils mobiles ou non.

Le GPS, aussi révolutionnaire soit-il, a ses limites. Déjà que les signaux ne peuvent être reçus sous terre ou sous l’eau, si la précision se dégrade ou devient indisponible pendant les tempêtes solaires, il faut commencer à penser à des solutions de rechange.

La DARPA et le post-GPS

Cette semaine, la DARPA a déclaré vouloir explorer de nouvelles technologies de positionnement qui ne seraient pas basées sur le GPS.

Sachant que notre demande en précision de géolocalisation augmentera dans les prochaines années, et en sachant aussi que des tempêtes solaires de niveau 5 arrivent environ 4 fois tous les cycles de 11 ans, on voit qu’il ne s’agit que d’une seule fois, comme aujourd’hui (où la conjoncture place la Terre sur le parcours d’une éruption solaire), pour comprendre qu’un jour, nous serons réellement affectés par une tempête solaire.

Ce jour-là, les tempêtes solaires entreront dans les bulletins météo…

Martin LessardDARPA A2P : des atomes à notre service?

par

 publié le 5 septembre 2014 à 14 h 51

La DARPA, l’agence de recherche et développement des militaires américains, se lance dans un nouveau programme, Atom to Product (A2P), des atomes aux produits. La DARPA compte en donner tous les détails la semaine prochaine.

A2P cherche à développer la miniaturisation extrême et les méthodes d’assemblage pour produire de nouveaux types de produits ayant des caractéristiques nouvelles.

Source DARPA

Source DARPA

À l’échelle nanométrique, plusieurs matériaux dans notre environnement présentent des caractéristiques très différentes.

Il faut comprendre qu’à petite échelle, le rapport relatif entre les forces fondamentales change radicalement, permettant l’apparition de certaines propriétés de la matière inconnue à notre échelle.

À cette échelle, les réactions électriques, l’adhésivité, les changements rapides de température ou l’absorption de la lumière diffèrent de ce qu’on observe à notre échelle, ce qui offre des occasions tout à fait nouvelles, révolutionnaires même.

Exemples  de propriétés à l’échelle nanoscopique

1) Superhydrophobie

Une structure nanométrique présente par exemple la possibilité d’être superhydrophobe, c’est-à-dire que sa surface devient extrêmement difficile à mouiller.

Les gouttes d’eau perlent sur la surface quand elles entrent en contact avec celle-ci à un certain angle.

(En passant, la firme Belge Nanex, experte mondiale en la matière, vient d’annoncer que son siège social au Canada sera installé à Montréal.)

2) Superparamagnétisme

Dans des particules de taille suffisamment petite, l’aimantation peut se renverser spontanément sous l’influence de la température ou peut être activée avec un champ magnétique.

C’est surtout comme ferrofluide, un liquide pouvant être magnétisé, que le superparamagnétisme est utile. Il permet d’améliorer le transfert thermique au sein des enceintes audio de haute qualité ou, en médecine, de détecter des maladies (les ferrofluides se fixent sur les cellules malades).

3) Électrocinétique

Des chercheurs ont réussi à démontrer comment l’eau salée circulant rapidement sur la plaque de graphène (un moustiquaire de carbone de l’épaisseur de quelques atomes) réussit à générer de l’électricité!

Le voltage généré est de l’ordre des 30 millivolts : c’est-à-dire 20 fois moins qu’une pile AA, mais c’est potentiellement suffisant pour des objets miniatures à faible consommation (senseur atmosphérique, détecteur, etc.)

Demain, l’infiniment petit à notre service?

La DARPA doit surmonter deux principaux défis pour réussir à passer des atomes aux produits :

  • Le premier défi étant que les propriétés « révolutionnaires » à l’échelle nanométrique se transposent à des échelles plus grandes. Si l’on ne peut réussir à transférer à notre échelle les bénéfices des prouesses qui s’observent au niveau atomique, bye bye les bonnes occasions.
  • Le second défi consiste à être capable d’assembler les éléments ensemble. Fabriquer un type d’élément est une chose (un interrupteur logique par exemple), mais qu’il puisse fonctionner dans un ensemble plus vaste est une tout autre paire de manches.

Ce n’est pas la première initiative que la DARPA lance, et toutes n’ont pas des retombées immédiates.

Du côté civil, à terme, l’effet est toutefois majeur, notamment du côté de l’électronique, mais aussi sur tous les aspects de nos vies.

Pensez à Internet ou au GPS, issus chacun d’un projet initialement lancé par la DARPA. Nous vous avons déjà mentionné, sur Triplex, leurs avancées en cours sur les robots. Ce sera le prochain grand changement.

En regardant sur quoi la DARPA travaille, on se demande en fait sur quoi elle ne travaille pas.

Source DARPA

Source DARPA

Le futur, à ce qu’il semble, se trouve dans leur laboratoire.

Martin LessardLe retour de la Semaine de l’informatique libre

par

 publié le 2 septembre 2014 à 13 h 22

Après une pause de six années, la Semaine québécoise de l’informatique libre (SQIL) est de retour pour une sixième édition, qui se déroulera du 20 au 28 septembre 2014 un peu partout au Québec.

En ce qui me concerne, ce sera la table ronde sur L’internet après Snowden prévue le mardi 23 septembre 2014 qui occupera mon attention durant cette Semaine de l’informatique libre.

Organisé en collaboration avec la Chaire d’excellence de l’Université de Montréal en droit de la sécurité et des affaires électroniques, FACIL et Mozilla, le débat portera sur la vie privée et la gouvernance du net après les révélations de surveillance massive en ligne.

apressnowden

J’aurai la chance d’y participer, au côté, entre autres, de Jérémie Zimmermann, cofondateur de La Quadrature du Net et coauteur du livre Cypherpunks (avec Julian Assange de WikiLeaks).

2014, l’année du tournant

Par un hasard du calendrier, 2014 clôture plusieurs époques importantes pour Internet :

  • 45 ans depuis la naissance d’ARPANET (octobre 1969, connexion de deux ordinateurs pour former l’ancêtre d’Internet)
  • 25 ans depuis la naissance du web (Tim Berners-Lee et Robert Cailliau au CERN)
  • 10 ans depuis la naissance du web 2.0 (ou, plus précisément, de la conférence « Web 2.0 », où John Battelle et Tim O’Reilly décrivaient pour la première fois le « web comme une plateforme« , qui est devenue la façon aujourd’hui de « consommer le web » jusqu’à lors vu que comme un ensemble de « pages web »)

Depuis les révélations de Snowden, il ne fait aucun doute que nous entrons dans une autre ère de développement d’Internet et que la vie privée, la gouvernance et le logiciel libre verront leur rôle redéfini.

Le logiciel libre porte une part d’utopie (collaboration, transparence, intelligence collective) qui n’a ni contrecarré l’arrivée de la surveillance, ni empêché des failles comme Heartbleed (lire Maxime sur Triplex : 5 choses à savoir sur Heartbleed), mais qui pourrait être une solution pour l’avenir du réseau. Reste à s’entendre sur la façon de le faire.

Justement, parlons de gouvernance, cette promesse d’une collaboration juste sur la façon de s’entendre. Cette gouvernance possède certaines parts d’ombre. Comment éviter qu’elle prête flanc à des détournements? Pour l’avenir d’Internet, qui aura réellement voix au chapitre?

Si les États prennent le dessus sur les autres acteurs de la partie civile, ou si des entreprises ou des institutions réussissent à tirer toute la couverture à eux, il y aura alors un réel danger pour l’avenir d’un Internet libre pour les citoyens.

La SQIL 2014 est un moment pour réfléchir à ces questions.

Libre de faire de l’informatique

sqil2014

La SQIL consiste principalement en des activités organisées par diverses organisations bénévoles passionnées par le logiciel libre et qui cherchent à faire connaître les avantages du « libre ».

Le logiciel libre autorise les utilisateurs à exécuter, à copier, à distribuer, à étudier, à modifier et à améliorer le logiciel qu’ils ont entre leurs mains. Avec les logiciels propriétaires (comme Word, Excel, iTunes, Safari), ce n’est pas légal. Les licences d’utilisation restreignent l’utilisateur sur ce qu’il peut faire.

L’idée fondamentale derrière le logiciel libre est donc de laisser un accès libre au code source du logiciel.

L’accès au code source est important, car c’est une condition nécessaire pour savoir ce que le programme fait réellement. L’accès offre une transparence et garantit une certaine forme d’appropriation des outils informatiques pour les utilisateurs, même si nous ne sommes pas tous assez compétents pour interpréter le code nous-mêmes.

Voici un aperçu des activités de la SQIL 2014 dévoilé aujourd’hui :

Le programme complet des activités se trouve ici : http://2014.sqil.info/activites

Renaissance de la SQIL

Portée depuis les débuts par son principal instigateur, Robin Millette, la SQIL est tombée en hibernation après qu’il s’est retiré de la vie active de militant de l’informatique libre en 2007.

Robin reste une figure de proue du mouvement et a été, entre autres, membre du conseil d’administration du FACIL, un organisme à but non lucratif dont le mandat est de promouvoir l’adoption, l’usage et la démocratisation de l’informatique libre.

« L’association FACIL, qui avait accepté depuis 2005 de gérer ce rendez-vous annuel, n’a pas trouvé les ressources nécessaires pour continuer cet
effort et s’est plutôt concentrée sur une seule Journée internationale du logiciel libre (Software Freedom Day) », me précise Robin.

L’association FACIL a pris un virage plus politique en 2008, notamment pour contester l’administration gouvernementale québécoise qui « refusait d’envisager et même d’évaluer l’option du logiciel libre dans les appels d’offres ».

En novembre l’an dernier, les membres de FACIL ont adopté un plan d’action qui vise à assurer la pérennité de leur organisme en augmentant ses effectifs et en assurant une permanence pour l’organisme. La SQIL est vue comme une activité de recrutement et de financement.