Billets classés sous la catégorie « Société »

Le rapport du GIEC sur l’évolution du climat publié lundi dernier n’annonce pas que de bonnes nouvelles. Nous serions près du « point de non-retour ».

L’homme est plus que jamais responsable du réchauffement climatique. Mais qu’en est-il de la technologie? En quoi aggrave-t-elle la situation? Pourrait-elle renverser la situation?

Certaines solutions de haute technologie sont proposées, parfois délirantes, parfois efficaces. Mais on ne se le cachera pas, c’est à l’être humain de faire le premier pas.

Le constat

20120408210916_Futurism_Got_Corn_graph_631_thumb

Le graphique ci-dessus indique un inéluctable point de bascule vers 2030 (soit dans un peu plus de 15 ans). La zone en gris représente les tendances observées qui confirment les prédictions. Notez, toutefois, que ça ne confirme que les courbes montantes pour l’instant (et celle descendante des ressources non-renouvelable).

« Il s’agit là, grosso modo, de la poursuite des tendances observées depuis la fin de la Deuxième Guerre mondiale – on n’a donc pas encore observé les points de bascule […] Il est dans ce cas difficile d’affirmer avec force que la modélisation sera avérée pour les prochains 5 à 10 ans, affirme Ianik Marcil, économiste indépendant. En revanche, comme le modèle semble toujours robuste et que ses hypothèses correspondent toujours à la réalité actuelle, on peut craindre que la prédiction soit juste. »

Ianik Marcil précise que les trois derniers rapports annuels du FMI, de la Banque mondiale et du forum de Davos « pointent tous les changements climatiques, la crise alimentaire et le prix/la pénurie des combustibles fossiles comme les principaux facteurs de risques majeurs pour l’économie mondiale pour les prochaines années ».

Est-ce que la technologie peut changer la situation?

La méthode du démiurge

La géoingénierie est la réponse musclée que certains voient pour contrecarrer le réchauffement plantaire. S’il fait trop chaud dans la maison, baissons le thermostat!

Irons-nous jusqu’à déclencher artificiellement des volcans capables d’émettre des millions de tonnes de dioxyde de soufre dans la stratosphère? L’éruption du mont Pinatubo aux Philippines en 1991 avait refroidi la planète de 1 degré avec le rejet de particules en haute atmosphère. Une façon de vouloir manipuler le climat qui fait peur !

Il a aussi été suggéré de mettre de gigantesque miroir dans l’espace pour détourner les rayons du soleil. Une variante de cette idée est de mettre une lentille dispersante de plusieurs kilomètres de large (mais de quelques millimètres d’épaisseur) pour dévier les rayons solaires.

lentillessolaires

Une autre idée : saupoudrer du sel de mer dans les nuages au-dessus des océans augmenterait le nombre de gouttelettes dans les nuages, ce qui ferait augmenter son albédo (indice de réflexion de la lumière). Ces nuages refléteraient davantage de rayons solaires dans l’espace avec un albédo plus élevé.

Dans la région arctique, il serait pensable de pomper l’eau et de la vaporiser sur la calotte glacière pour en augmenter l’épaisseur. Ce qui marche à Sotchi peut fonctionner aux pôles. En conservant cette masse de glace, non seulement on maintient l’albédo de la Terre, mais on garde au froid le pergélisol limitrophe qui contient le méthane, aux effets de serre terrifiants.

Ces propositions technologiques semblent sortir tout droit du cerveau d’un savant fou. Mais elles ne sont pas plus folles que l’idée de la terraformation de Mars de la NASA (cyniquement, en faisant ce qu’on fait de mieux ici : augmenter l’effet de serre).

mars1000ans

Pour ma part, il ne m’apparaît pas très futé de laisser des enfants jouer avec le thermostat (à l’échelle géologique, nous sommes des nouveau-nés) et vouloir ainsi contrôler la température de la planète. Qui est en mesure de prendre une décision pour l’ensemble du globe? Si vous avez déjà été en colocation avec des frileux, vous savez que chacun a sa vision de ce que doit être une bonne température.

De toute façon, ces idées ne réduisent en rien la quantité de CO2, source du problème.

La réduction à la source

Le transfert des connaissances et des technologies. Au lieu de jouer dans l’écosystème planétaire, on joue dans l’économie planétaire : si les pays possédant les technologies vertes donnaient leurs connaissances à d’autres pays roulant encore sur de l’énergie polluante, ça ferait déjà une belle différence. On touche toutefois ici à une vache sacrée, le marché!

Le réseau de distribution d’électricité optimisée (smart grid). Des senseurs optimisent la production, la distribution et la consommation pour améliorer l’efficacité énergétique de l’ensemble, et ce, entre les villes et les pays, où une maison pourrait revendre son surplus sur le réseau.

Le numérique vert. Greenpeace a sorti cette semaine son palmarès de l’infonaugique écologique. L’infonuagique (cloud computing) consomme massivement de l’énergie pour faire tourner tous ces serveurs (et les refroidir), ce qui nous permet d’accéder de partout à nos courriels dans Gmail, à nos fichiers musicaux dans iTunes/iCloud ou à nos livres sur Amazon.

nuagevert2014

(On y apprend qu’Apple utilise 100 % d’énergie renouvelable pour son parc de serveurs, Google, 48 %, et Amazon, un maigre 15 %. Quand on pense qu’Apple avait été montré du doigt il n’y a même pas deux ans comme un grand pollueur par Greenpeace, on reprend espoir.)

L’idée ici est de se convertir aux énergies vertes.

La méthode de la prévention

Avec un réseau et des ordinateurs plus verts, on peut espérer ne pas ajouter davantage au problème.

Pour l’agriculture, l’utilisation des drones se développe. Ils permettraient aux agriculteurs de cartographier leurs cultures, d’appliquer avec précision les engrais ou de gérer l’eau. Des fermes verticales sont à l’essai pour rapprocher des centres urbains la nourriture qui aurait été, sinon, transportée sur des milliers de kilomètres.

fermeverticaleplan

Pour améliorer le stockage de l’eau et les techniques d’irrigation, on peut penser que des senseurs, distribués dans Internet des objets, pourraient protéger et optimiser les réserves aquifères.

En ville, des bâtiments seraient en mesure de gérer intelligemment l’énergie par une gestion adéquate à haute efficacité (fenêtres qui transforment les rayons solaires en électricité pour l’éclairage, toits verts pour réduire les îlots de chaleur, air conditionné qui détecte s’il y a des gens dans la pièce, etc.)

La voiture intelligente, électrique ou non, qui se conduit toute seule peut réduire la consommation d’énergie par une conduite optimisée. Des avions électriques ou solaires sont à l’essai. Les moteurs de Tesla sont testés sur des bateaux.

Ces solutions de prévention (qui touchent les secteurs les plus polluants de notre société) ne sont plus du domaine de la science-fiction. Mais il y a loin de la coupe aux lèvres. Car elles ne remplacent en rien la volonté collective, de l’individu aux organismes mondiaux et dans tous les recoins de la planète, de sortir du cercle vicieux d’un climat déréglé.

Une volonté forte pourra faire en sorte que ces technologies soient mises en place rapidement et massivement. Mais on ne se le cachera pas, c’est à l’être humain de faire le premier pas.

Martin LessardQui veut voter par Internet?

par

 publié le 31 mars 2014 à 15 h 06

Pourquoi, en 2014, ne pouvons-nous pas encore voter par Internet? Si je peux faire des check-in sur Foursquare, des j’aime sur Facebook ou des tweets sur Twitter, pourquoi ne puis-je pas voter pour mon député tout en marchant sur un trottoir?

voter

La technologique ne serait-elle pas justement un bon moyen de renforcer notre processus démocratique? Petit tour d’horizon.

Les possibles bénéfices d’un vote par Internet

La question est légitime. Au Québec, où on va voter dans une semaine, le Directeur général des élections (DGE) avait déclaré l’an passé étudier la possibilité.

Du point de vue de l’électeur, on peut y voir certainement deux avantages :

  1. Voter est simple comme appuyer sur j’aime sous une photo de chat.
  2. On peut le faire en pyjama, sans devoir aller au bureau de vote.

Mais voter en pyjama ne représente pas en soi une avancée pour l’humanité.

C’est surtout l’idée d’éviter des files d’attente au bureau de vote qui est le véritable bénéfice pour les électeurs. Et pour les personnes à mobilité réduite, voter de chez soi constitue aussi une réelle avancée. De plus, on peut penser que des électeurs de régions très éloignées, comme le Grand Nord, ou ceux qui sont à l’étranger seraient bien servis par un tel service.

voter-fb

Du point de vue sociétal, les partisans du vote par Internet espèrent augmenter le taux de participation chez les jeunes âgés de 18 à 30 ans.

  • Mais si on se fie à l’expérience de l’Estonie, où le vote par Internet a été instauré il y a une décennie, force est d’admettre que la proportion d’électeurs qui préfèrent ce nouveau mode de scrutin reste encore minoritaire.

Du point de vue organisationnel, un système de vote par Internet semble a priori moins coûteux et plus simple à déployer, sans compter le fait de pouvoir connaître les résultats instantanément à la fermeture des bureaux.

  • Malheureusement, parce que ce ne sont pas 100 % des électeurs qui sont branchés sur Internet, il faudrait  garder en parallèle le système des bureaux de vote.

Faciliter notre devoir de citoyen représente donc un coût supplémentaire.

Les possibles risques d’un vote par Internet

Ceux qui s’opposent au vote électronique citent toujours en premier le risque pour la sécurité :

  1. Problème de virus informatique
  2. Attaque en déni de service (DoS), où des requêtes massives aux serveurs viennent l’empêcher de fonctionner correctement

Imaginez, une grande partie de la population qui n’arriverait pas à se brancher aux serveurs pour voter à temps!

Ces problèmes ne sont pas typiques des votes par Internet et sont potentiellement le lot de tous les serveurs sur le réseau.

Il n’est pas impensable qu’une architecture distribuée de serveurs puisse diminuer grandement le risque de telles attaques. Il semble toutefois que ce ne sont pas ces ennuis techniques qui sont au coeur du problème du vote par Internet.

La confidentialité des votes est au coeur du processus démocratique. Internet, on le sait maintenant, est un repaire d’espions. Il faudrait une véritable connexion cryptée impénétrable pour assurer que personne ne puisse capter votre vote quand il passe dans les tuyaux (aussi appelé attaque de l’homme du milieu).

  • Peut-être pourra-t-on réduire éventuellement ce risque, mais depuis les révélations de Snowden sur le noyautage des logiciels de cryptage, il semble que tout ce qui passe sur Internet est aussi peu confidentiel qu’une carte postale.

L’authenticité de l’identité de l’électeur lui-même est aussi au coeur du processus démocratique. Est-il bien la personne qu’il prétend être?

  • Une solution consiste à donner une carte d’électeur à tous. Comme une carte de crédit, cette carte d’électeur contiendrait les informations qui servent à s’identifier. Protégé par votre code de passe, et combiné à un NIP fourni par le DGE, il serait possible de voter avec un lecteur de carte.

Là où la carte de crédit a besoin de garder toutes les traces des transactions, la carte d’électeur devra faire exactement l’inverse et éviter d’associer un vote à un électeur pour préserver la confidentialité.

En ce moment, le DGE ne croit pas qu’on puisse assurer encore le caractère confidentiel du vote et l’identité des électeurs. On trouvera peut-être des solutions technologiques, mais il existe aussi un problème qui n’est pas technologique en soi : la confiance dans tout ce système.

Trouvez le bogue

Fondamentalement, le vote par Internet n’est pas vraiment une question de matériel, mais de logiciel.

Que ce soit un logiciel propriétaire ou un logiciel libre, l’enjeu fondamental est de vérifier qu’aucun code malicieux ne s’est introduit dans le programme.

On pourrait penser que le logiciel libre aurait ici un avantage (tout un chacun a accès au code, et cette transparence permet de retrouver toutes les manipulations), mais ce n’est pas tout à fait le cas.

Si code malicieux il y a, même si le code ouvert est propre, il peut être introduit à l’étape de la compilation en langage machine. C’est l’étape où on traduit le code, qui est lisible (IF X=1), en langage binaire (000100100010010), beaucoup moins facile à lire pour un humain.

Votez pour l'homme du milieu

Votez pour l’homme du milieu

On pourrait se prémunir contre ce type de détournement (en retraduisant ce code machine en langage de programmation), mais il reste que si c’est sur une application mobile que se fait le vote, une fois qu’elle est distribuée dans le grand public, tout le monde n’a pas les capacités de décompiler un programme.

Il faudrait ne pas distribuer ce type d’application, mais faire voter le citoyen sur un site centralisé (mais reviennent alors les craintes d’attaques de DoS).

Les révélations de Snowden sur la NSA ont montré à quel point les systèmes informatiques ne sont pas à l’abri des détournements (comme l’attaque de l’homme du milieu). Un programme malicieux et discret pourrait toujours entrer en action pour détourner les voix dans ce site centralisé à un moment stratégique, mais rester invisible le reste du temps.

Tout compte fait

soumettre

L’informatisation du vote par Internet introduit donc des fragilités dans le processus même de l’élection : il peut y avoir une manipulation massive des votes de façon invisible. Une fraude indétectable qui ne permet pas le recomptage, soupape essentielle pour éviter les accusations de « vol d’élection »…

Même en imaginant un hypothétique bunker informatique parfait, il faudra s’assurer en tout temps que personne de l’intérieur ne laisse entrer de tels codes malicieux dans le système.

Même une fois toutes ces menaces levées, il restera toujours un problème purement humain : en l’absence d’isoloirs, une partie plus fragile de la population pourrait subir de la coercition de la part de personnes mal intentionnées qui pourraient les forcer à voter pour leur candidat.

Ou pire, des électeurs désabusés, ceux qui, à l’heure actuelle, ne participent pas aux processus électoraux, pourraient se mettre à vendre massivement leur voix sur des réseaux cachés, hors de tout contrôle.

L’ampleur reste à voir, mais le traitement des plaintes ne sera pas une mince tâche.

Tous ces possibles risques auraient en tout cas l’effet inverse de celui souhaité au départ. La précaution est donc de mise. Je préfère encore pour l’instant me rendre dans l’isoloir pour voter pour mon député.

Google se targe d’être le champion des données. En 2008, la compagnie avait lancé le service Google Flu Trends, un site de détection de propagation de la grippe en temps réel.

Par une corrélation sophistiquée basée sur les termes de recherches dans son célèbre moteur (comme « grippe », « fièvre »), Google devait être capable de prédire l’éclosion de grippe dans telle ou telle partie du territoire.

Depuis, ce site est présenté comme le parangon des données volumineuses, comme une preuve que les masses de données traitées efficacement pouvaient se révéler plus rapides et plus fiables pour décrire la réalité que les méthodes de collectes traditionnelles sur le terrain.

Le Centre américain de contrôle et de prévention des maladies (CDC) collige les motifs des visites chez les médecins. S’ils sont très fiables, ces constats prennent malheureusement plusieurs jours pour être dressés. Google Flu Trends (GFT), lui, est instantané.

Google Flu Trends échoue au test!

Aujourd’hui, une étude dans le magazine Science* démontre que GFT a, pendant les trois dernières années, toujours surestimé les chiffres durant la saison de la grippe. L’estimation de Google dépassait de 50 % celui de la CDC durant cette période.

Or, justement, s’il y a bien une période où le besoin de données fiables se fait cruellement sentir, c’est celle de la propagation massive de la grippe.

gftdata

Ce graphique produit par les chercheurs illustre comment les résultats de Google Flu Trends (ligne orange) surestiment systématiquement les cas de grippe depuis 2011.

La conclusion que tirent les chercheurs souligne que des statistiques prédictives extrapolées des « grandes données » peuvent être trompeuses s’ils ne sont pas ajustés avec des « petites données » réelles acquises sur le terrain.

L’auteur principal de l’étude, David Lazer, professeur à la Northeastern University, explique que les correctifs à apporter à GFT seraient relativement simples : il faut simplement recalibrer régulièrement GFT à partir des données réelles sur le terrain (CDC).

Autrement dit, GFT + CDC = données plus justes.

L’augmentation des recherches de mots comme « fièvre » ou « grippe » semble reliée à un battage médiatique. Par contre, l’augmentation de cas de grippe dans les établissements de soins de santé ne l’est jamais.

Le danger est de s’appuyer uniquement sur les technologies des données volumineuses, nous avertissent les chercheurs. Ce n’est pas un substitut de la collecte et de l’analyse sur le terrain. Les deux sont complémentaires.

La chute du Big data

Chaque année, Gartner publie un tableau du cycle des technologies où les tendances de l’heure sont placées sur une courbe de maturité.

Dans la dernière, celle de 2013, les données volumineuses se trouvaient placées au « pic de leur buzz » (Peak of inflated expectations).

gartnerhypecycle2013

Avec cette étude sur l’échec de GFT sortie aujourd’hui, il ne fait plus de doute qu’on peut annoncer la « descente en enfer » des données volumineuses (Trough of désillusionnent), la prochaine étape dans l’échelle de maturité, selon Gartner.

L’inflation des attentes entourant les promesses des données volumineuses va maintenant se résorber, et une partie de l’effet de mode se dissipera pour nous faire revenir à un niveau plus réaliste.

Les chercheurs de l’étude sur Google Flu Trends ne dénigrent pas le potentiel des données volumineuses (au contraire), mais ils nous préviennent que ce n’est pas la quantité d’informations en soi qui forme une connaissance juste des choses, c’est la qualité de la boucle de rétroaction et d’amélioration continue qui en est la garantie (notamment en tenant compte des données réelles, et non seulement celles qui sont extrapolées).

De plus, nous avertissent les chercheurs, il faut aussi tenir compte de la transparence des algorithmes utilisés dans les données volumineuses (et de tout projet basé sur les données massives, comme la « ville intelligente »). La science a besoin de répliquer les expériences afin de les valider. Les résultats des données de masse doivent être reproductibles pour être crédibles.

Sinon, sans ouverture, sans transparence, parler de données de masse revient à jeter de la poudre aux yeux, c’est faire passer les données de masse pour de la magie.

La fin de la récré a sonné.

Reproduction de l’étude sur Google Flu Trends (en PDF) sur le site de l’Université Harvard.

Autres billet sur Triplex :

Big data : les mauvaises connexions
Web à Québec : entre les données volumineuses, les microdonnées et Google
Demain, la ville intelligente

Dans une recommandation au gouvernement australien, qui a été révélée ce matin par le site TorrentFreak, Google prévient les élus que toutes mesures antipiratage draconiennes pourraient s’avérer contre-productives (document original).

lettregoogleaustralie

À la place, propose Google, le gouvernement australien devrait promouvoir de nouveaux modèles d’affaires. Le piratage en ligne existe, dit Google, parce qu’il y a un problème de disponibilité des contenus légaux. Rendez accessibles les contenus légaux, à un coût raisonnable, et le téléchargement illégal devrait se tarir.

Dans ce sens, suggère Google, il est plus profitable pour un gouvernement d’encourager les nouveaux modèles d’affaires que de monter un programme répressif.

Le cas de la France

En France, un tel programme répressif s’est avéré inefficace. Le programme Hadopi (8,5 millions d’euros en 2013) a envoyé un million de courriels d’avertissements aux internautes qui auraient téléchargé illégalement des contenus. Plus de 140 000 lettres recommandées (à 4,19 euros/pièce) ont aussi été envoyées.

De tout ça,  ce sont entre 20 et 30 dossiers qui ont été examinés. Une seule personne a été condamnée (à une peine d’amende de 150 euros).

Hadopi

La voie de la répression n’est pas la moins coûteuse.

Un chantier pour occuper l’espace

Un chantier spécifiquement sur le droit d’auteur, comme prévu dans le plan stratégique culturel québécois déposé la semaine dernière, réfléchira à la façon d’occuper l’espace avec une offre numérique, selon des paramètres à déterminer.

Ce chantier sur le droit d’auteur sert à créer un lieu de concertation pour « proposer des solutions visant au respect du droit d’auteur en matière de diffusion dans l’univers numérique ».

Il est donc intéressant d’être à l’écoute de ce qui se fait ailleurs. Car emprunter une voie qui viserait à occuper l’espace par une surveillance des gens ne me semble pas une façon de se projeter correctement dans l’avenir.

Un chantier pour « occuper l’espace numérique » avec les contenus québécois doit développer les conditions pour qu’ils soient avant tout accessibles et à bon prix.

Le ministère de la Culture et des Communications du Québec a annoncé lundi sa stratégie culturelle numérique (PDF).

titre-scnq

Cette stratégie laisse grande place aux recommandations stratégiques pour le virage numérique de l’industrie culturelle québécoise déposées par la SODEC en 2011. Ces recommandations, que j’ai eu l’honneur de rédiger avec des membres de la SODEC, découlaient des multiples rencontres avec les gens de l’industrie culturelle en 2010 et en 2011.

Un constat inéluctable s’imposait : un contenu culturel qui n’est ni numérisé, ni diffusé en ligne, ni accessible sur les moteurs de recherches, ni agrégé par des sites ou sur les réseaux sociaux est un contenu qui n’existe pas aux yeux des consommateurs.

Le retard dans les pratiques numériques réduit la capacité des entreprises culturelles québécoises à faire concurrence à l’offre étrangère omniprésente.

Avec tout le talent qu’il y a ici, comment se fait-il que ce soit des Cyprien de France, des Netflix des États-Unis, des iPlayers de la BBC, des Opéras du Met diffusés en direct dans les cinémas d’ici qui se retrouvent à occuper notre temps de cerveau?

Ce n’est pas un problème de talent, mais de rayonnement. Il s’agit donc de se donner les moyens de conquérir l’espace numérique.

Pour occuper l’espace numérique

Dans la synthèse rédigée avec  la SODEC, nous avions proposé trois chantiers : un pour combler le retard, un pour soutenir les forces en place, et un autre pour innover et se tourner vers l’avenir.

Chaque chantier était traversé des trois axes d’interventions : enrichir l’offre de contenu, accroître la visibilité des contenus et offrir des incitatifs propices au développement du numérique.

Je ne peux que constater que le gouvernement a suivi la même approche et le milieu culturel québécois doit être aujourd’hui satisfait que leurs requêtes soient ainsi bien encadrées.

cadreMCC

De ce cadre de référence, je retiens deux points qui me tiennent à cœur.

La culture doit passer par le numérique

Numériser l’offre culturelle existante, c’est l’ouvrir à sa circulation en ligne. Les trésors culturels du passé et du présent doivent être rendus accessibles sur les nouveaux canaux. Ce qui implique de repenser certaines méthodes et  modèles d’affaires.

Par exemple :

  • Série noire traîne de la patte dans les cotes d’écoute à la télé? Pourquoi ne pas avoir téléchargé toute la série d’un coup sur Tout.tv? Netflix l’a fait pour House of Cards et la série se porte très bien.
  • Une production théâtrale ou une performance artistique pourrait être vue partout au Québec dans les salles de cinéma rajeunies pour l’occasion. Comme disait Monique Savoie de la SAT, c’est le début de la « démontréalisation » de la culture.

Favoriser une culture numérique

Pour favoriser des pratiques émergentes et inédites, il faut encourager la collaboration entre les acteurs de la chaîne et le transfert de connaissance. Il est impératif de réussir à sortir du carcan traditionnel du chacun pour soi.

Je proposais à l’époque l’idée d’un SODEC Lab (l’expression n’a pas été retenue) qui serait un pôle d’innovation pour expérimenter. L’idée, tirée de la culture web, consiste à brasser les savoir-faire et susciter la concertation, de façon à générer des projets collaboratifs plutôt que concurrentiels (c’est le point 3c du cadre stratégique actuel).

Ce « laboratoire » associait toute subvention ou aide à la condition expresse que les mandataires reviennent impérativement partager leur expérience et leur savoir sous forme de document et de présentation ouverte à tous.

Ce niveau de détail est évidemment trop tactique pour être intégré dans le plan stratégique du ministère, mais il donne bien le ton : les leviers qui permettront au Québec de développer une économie du savoir basée sur la créativité passent par toute la population.