Martin Lessard2013, l’année du premier « système nerveux planétaire »?

Par

 publié le 3 janvier 2013 à 14 h 57

La « grande donnée » (big data) est une expression qui circule depuis quelques années dans la niche de l’informatique infonuagique et fait référence aux outils, processus et procédures permettant à une organisation de créer, de manipuler et de gérer de très larges quantités de données en temps réel.

Les grandes compagnies (on pense à Google, à Visa, à Amazon) sont déjà sur ce terrain. La possibilité de gérer de la grande donnée commence à être accessible pour les plus petites entreprises. La démocratisation est en cours, et la grande donnée sera accessible à tous, citoyens compris. C’est une question de temps.

C’est possiblement, avec l’Internet des objets, la prochaine grande vague de changements la plus sous-évaluée en ce moment.

On n’a qu’à regarder comment nos politiciens ont tenté d’intégrer les médias sociaux dans leurs habitudes : c’est au mieux une pâle copie de la stratégie des médias sociaux de la campagne d’Obama… de 2008.

En 2012, le président américain a plutôt opté pour la grande donnée afin de coordonner de façon plus efficace ses troupes sur le terrain (source). Et il a gagné.

Plan numérique, innovation planifiée

Quand un État se dote d’un plan numérique, il lui est possible d’anticiper les coups, et non plus de les subir.

« La stratégie numérique pour l’Europe a été adoptée en 2010 dans le cadre de la stratégie Europe 2020 pour stimuler l’économie numérique et répondre aux défis sociétaux par les TIC. » (source)

Une des conséquences de ce plan a été le lancement d’un concours visionnaire pour financer un grand projet informatique porteur et innovateur, d’une envergure similaire au projet de cartographier le génome humain.

Sur 21 projets proposés, 6 ont été retenus comme projets-pilotes il y a un peu plus d’un an. Et à la fin de ce mois de janvier, la Commission européenne choisira parmi eux deux finalistes. Et un seul des deux recevra un prix de 1 milliard d’euros au courant de 2013 pour mener à terme son projet sur un horizon de 10 ans.

Un des projets me semble être celui qui utilise le plus la grande donnée…

FuturICT : Système nerveux planétaire

Appelé FutureICT, le projet propose ni plus ni moins de devenir une « plateforme planétaire », un projet grandeur réelle pour simuler la planète en action.

Ce système nerveux planétaire sera composé de multiples senseurs qui mesureront en temps réel l’état et les interactions du monde entier. En branchant ensemble des données statiques (sondages, compilations, études) et des données dynamiques (web, mobile, senseurs), l’équipe espère arriver à une meilleure représentation de ce qui compose une société. Mieux en tout cas que le PIB, données statistiques incomplètes qui datent du début du siècle dernier.

Le projet permettra de faire des simulations à une échelle sans précédent. Modelé sous la forme d’un App Store, mais décentralisé, il permettra aux scientifiques et aux programmeurs (et au public en général) de partager des composantes, des outils et des données, pour « augmenter la réalité » ou, du moins, simuler des réalités sociales pour prendre de meilleures décisions.

Simulation, l’avenir

On sait tous que 2013 sonnera le retour du jeu Sim City. Prévu pour mars, ce jeu de simulation et de gestion de ville 3D est probablement un des jeux les plus attendus de l’année naissante.

En 2013, on verra peut-être le démarrage du projet FuturICT, qui fera connecter les données de milliards de composantes « intelligentes », interactives et autonomes pour rendre notre planète consciente d’elle-même…

Futur, Informatique, Innovation, Société, Tendance