Billets classés sous la catégorie « Internet »

Catherine MathysLe suffixe .com a 30 ans

par

 publié le 16 mars 2015 à 11 h 49

Le 15 mars 1985 naissait la première adresse .com. Depuis, les suffixes se sont multipliés et on en retrouve une multitude, dont .gov pour les gouvernements, .org pour les organismes, .ca pour les adresses canadiennes et, depuis l’automne dernier, il y a même un .quebec.

Bien que le .com signifie « commercial », le suffixe est ouvert à tous et demeure de loin le plus utilisé sur Internet. Au troisième trimestre de 2014, sur un total de 284 millions de noms de domaine, on comptait 114,9 millions de .com. Le plus proche concurrent, .net, se chiffrait à 15,1 millions.

Chaque seconde, un nouveau nom de domaine .com est créé.

DotCom_Logo_OnWhite

De lents débuts

Le premier site à porter le suffixe .com a été Symbolics.com. Mais les autres n’ont pas suivi rapidement. Il aura fallu deux ans pour atteindre les 100 adresses .com.

De nos jours, la totalité des 500 plus grosses entreprises des États-Unis ont une adresse .com. Ces trois petites lettres sont devenues signe de prospérité.

D’ailleurs, l’entrepreneur web controversé Kim Schmitz, qui fait un retour dans l’actualité ces jours-ci, a même changé son patronyme pour Dotcom en hommage à ce suffixe qui a fait sa fortune.

L’éclatement de la bulle

Vous avez sûrement déjà entendu parler de la bulle des dotcom? Elle ne porte pas ce nom-là pour rien. Entre 1995 et 2000, l’année de son éclatement, on est passé de 9005 à plus de 20 millions d’adresses.

Ces jours-ci, on ne fait pas que souligner l’anniversaire des .com. On se souvient également des 15 ans de l’éclatement de cette bulle .com qui a suivi l’engouement de la fin des années 90.

 

1dot

 

En mars 2000, les marchés avaient chuté drastiquement. En moins d’un mois, près d’un trilliard de dollars d’actions s’étaient envolés. Des dizaines d’entreprises ont fait faillite, des fortunes entières ont été décimées. L’économie américaine s’est embarquée sur une pente descendante qui allait la mener vers une récession.

Un .com résilient

Bien que les beaux jours du suffixe soient probablement derrière lui, certains domaines .com se vendent encore à prix d’or. Par exemple, le site insure.com est devenu, en 2009, le nom de domaine le plus cher de l’histoire avec son coût de 16 millions de dollars. La liste des noms de domaine les plus coûteux est ici. Et oui, ce sont tous des .com.

Cependant, de nos jours, la mode est à la personnalisation du nom de domaine.

En 2008, l’ICANN, l’autorité en charge de la régulation des noms de domaine sur Internet a lancé un programme permettant de personnaliser les extensions traditionnelles. Au fil des ans, on a donc pu voir apparaître des suffixes classés selon le secteur d’activité (.maison, .bio, etc.), selon les villes (.newyork, .paris, etc.) et, bien sûr, selon les marques (.apple, .lancome, etc.).

Avec cette diversification des suffixes et la prolifération des applications, le .com sera-t-il encore tout aussi dominant dans les prochaines années? Les paris sont ouverts.

Catherine MathysYouTube a 10 ans

par

 publié le 13 février 2015 à 15 h 10

Demain, YouTube aura 10 ans. Le média social est désormais l’un des sites les plus visités du monde. Et les statistiques sont éloquentes. YouTube compte plus de 1 milliard d’utilisateurs. On y téléverse plus de 300 heures de vidéo chaque minute et, signe des temps, la moitié des visionnements se fait sur mobile. Dire que tout est parti de cette vidéo qui est la première recensée sur le site :

YouTube n’attire pas seulement les artistes, les politiciens ou les grandes marques. Il offre aussi une plateforme de diffusion à tous les usagers jusqu’à en créer un véritable vedettariat parallèle. Cet étonnant sondage de 2014 révélait même que les adolescents américains connaissent mieux les vedettes de YouTube que celles du cinéma, de la télé et de la musique.

 Les vidéos les plus marquantes

Le magazine GQ a recensé les vidéos les plus marquantes de YouTube depuis sa création.

En tête, il faut bien sûr souligner le clip de Gangnam style, de Psy, publiée le 15 juillet 2012. Il s’agit de la première vidéo à dépasser le milliard de visionnements le 21 décembre 2012. Elle trône toujours la liste des vidéos les plus vues avec près de 2,3 milliards de clics.

Vous serez peut-être heureux d’apprendre que la deuxième place revient à un Canadien : Justin Bieber. En effet, sa vidéo de la chanson Baby a été vue plus d’un milliard de fois.

En troisième position, on retrouve le duo américain LMFAO, qui compte plus de 800 millions de vues pour son Party rock anthem, publié le 8 mars 2011.

Pour le reste du palmarès, je vous invite à lire l’article. Notons qu’il s’agit principalement de clips de musique, sauf pour la courte séquence de deux jeunes frères Charlie bit my finger – again.

 YouTube et le partage en ligne

À l’occasion de l’anniversaire de YouTube, le Pew Research Center a dévoilé cinq constats qui en disent long sur l’évolution de nos habitudes de publication de vidéos en ligne.

pew1

 1) Un tiers des adultes américains a publié une vidéo en ligne en 2013

Parmi ceux qui l’ont fait, 35 % espéraient qu’elle devienne, selon une expression nouvelle, virale. C’est que, en plus de changer nos habitudes, YouTube a aussi changé notre vocabulaire.

2) Les animaux, surtout les chats, sont très populaires

Dans le contenu original trouvé sur le web, 45 % concernait des animaux en 2013. En fait, beaucoup de contenu semble improvisé. Très peu d’utilisateurs (23 %) ont scénarisé leur vidéo cette année-là.

3) YouTube est le deuxième média social en importance derrière Facebook

Une étude de 2014 note que 77 % des adultes américains en ligne sont sur Facebook et que 63 % utilisent également YouTube.

pew 2

4) YouTube est plus populaire chez les jeunes

Ici, pas de grande surprise puisque 82 % des 18-29 ans ont utilisé YouTube en 2014 contre 35 % des 65 ans et plus. Le Pew Research Center note aussi que le site est plus populaire auprès des Noirs et des hispanophones qu’auprès des Blancs.

5)  YouTube est utilisé de plus en plus pour relayer des vidéos d’actualité

Ce qui est intéressant, c’est que ce ne sont pas forcément des nouvelles de grands médias mais plutôt des vidéos personnelles reliées à un fait d’actualité. Environ 12 % des utilisateurs des médias sociaux disent avoir diffusé de telles vidéos en 2014. Et le phénomène date déjà de quelques années. Une autre étude de 2012, montrait déjà que 40 % des vidéos reliées à des nouvelles sur YouTube provenaient de sources non officielles.

 

À la suite de mon billet sur l’extension du réseau Internet jusqu’à Mars, j’ai reçu des commentaires d’internautes se plaignant qu’on ferait mieux de commencer par augmenter la bande passante ici, dans les petites villes de région, avant d’en donner l’accès aux Martiens.

Effectivement, comme le rappelait Fabien Deglise dans Le Devoir de samedi dernier, « un consommateur canadien paie deux fois plus cher qu’un même consommateur en Lettonie, et ce, pour une connexion à Internet deux ou trois fois moins rapide ».

Il est tout à fait anormal que la haute vitesse ne soit pas abordable en dehors des grands centres. D’où la surprise de certains de voir le réseau Internet s’étendre à la planète voisine avant de se rendre dans un rang près de chez nous.

« L’avenir va être dans les mains des pays qui vont donner à leurs citoyens la capacité de bien gérer l’information et de bien la faire circuler. [C'est] tout aussi important que l’infrastructure permettant l’approvisionnement en électricité. » (Jean-François Gauthier, président de l’Institut de la gouvernance numérique, cité par Fabien Deglise).

Internet est comme les routes et l’électricité : essentiel

maitre

L’infrastructure routière et énergétique relève d’un plan stratégique pour tout gouvernement soucieux de l’épanouissement de son économie et de se donner une marge de manoeuvre dans sa souveraineté. Les communications sur Internet doivent être aussi vues comme un vecteur d’innovation et d’enrichissement.

Quand on lit que le « gouvernement conservateur [à Ottawa] envisage de mettre fortement l’accent sur le secteur manufacturier dans son prochain budget », après avoir placé toutes ses billes sur l’or noir, on voit bien que les préoccupations du 20e siècle sont encore très présentes.

Mais faut-il pour autant négliger les enjeux du 21e siècle, celui des réseaux?

Le plan Obama pour la très haute vitesse

Pour apporter de la concurrence sur le marché de l’accès Internet, le président Obama n’a pas hésité à annoncer son soutien aux villes qui souhaitent bâtir un réseau concurrent aux grands fournisseurs Internet qui traînent de la patte.

  1. Il demandera au FCC (notre équivalent du CRTC) de se débarrasser des lois dans les États qui protègent les grands fournisseurs en interdisant aux villes d’offrir un réseau Internet de meilleure qualité.
  2. Les États-Unis proposeront de brancher la quasi-totalité du pays à un accès Internet de 100 Mb/s d’ici 5 ans (de 4 à 10 fois ce qui est appelé « haute vitesse » en ce moment)

Bien sûr, le président démocrate sera confronté à la résistance des républicains, mais on voit bien qu’il considère la très haute vitesse comme un facteur important pour le bien-être d’une économie.

Certains, trop habitués à voir le web comme une chaîne continue de mignons chatons sautant dans des boîtes, sont l’équivalent des gens qui, il y a 100 ans, ne voyaient pas l’intérêt de faire entrer la fée électricité dans tous les foyers.

Sauf si l’on voit Internet comme un réseau d’échange de courriels, il est clair qu’une plus grande bande passante permettrait l’expression de la créativité dans tous les coins du pays. Les échanges passeraient par des téléconférences, la réalité augmentée et les mondes virtuels.

Le développement de nouveaux outils va probablement demander beaucoup plus de bande passante qu’actuellement.

Si l’on reste le nez collé sur le présent, on risque de manquer la sortie vers le futur.

Martin LessardLes défis d’un Internet interplanétaire

par

 publié le 22 janvier 2015 à 5 h 48

Cette semaine, le fondateur et président de SpaceX, Elon Musk, a annoncé vouloir envoyer des centaines de microsatellites autour de la Terre, avec l’aide de Google. Le but? Améliorer l’accès à Internet et aussi «développer le réseau Internet jusqu’à Mars ».

L’idée d’une communication entre planètes est une chose (les agences spatiales le font déjà), mais étendre Internet dans l’espace?

Personnellement, j’ai déjà des problèmes à étendre mon réseau wifi jusqu’au bout de mon logement. Imaginez le défi de prolonger la connexion Internet jusqu’à Mars et au-delà!

Voyons les défis qui attendent ceux qui souhaiteraient développer Internet dans l’espace.

La structure d’un réseau interplanétaire

Capture d’écran 2015-01-20 à 14.14.41

La structure d’un tel réseau qui étend Internet peut se résumer à trois éléments :

1) Une dorsale interplanétaire
C’est le lien qui relie un satellite dans une orbite stable (géostationnaire ou sur un point de Lagrange) à un satellite similaire sur une autre planète. C’est l’autoroute qu’emprunteront les données pour le long voyage entre les planètes.

2) Un réseau planétaire
Autour de chaque planète doit exister un réseau de satellites couvrant l’entièreté de la zone au sol et chargé de redistribuer le lien Internet au sol ou entre les autres vaisseaux à proximité. C’est ce type de réseau que SpaceX veut construire autour de la Terre.

3) Un réseau local et de proximité adapté aux conditions spatiales
Au sol ou dans un vaisseau en orbite, un réseau local est chargé de redistribuer la connexion à tous les objets connectés à proximité (un peu comme votre réseau wifi le fait pour votre tablette, votre cellulaire et votre télévision à la maison).

Actuellement, déployer une puissante dorsale et un réseau Internet autour de Mars reste entièrement à faire.

Les problèmes de la communication dans l’espace

C’est sur le plan de la dorsale que se situe le principal défi.

  • Longs délais variables et connexions intermittentes dans les communications
  • Distance fluctuant entre les deux extrémités de la dorsale

Il faut savoir que la communication entre Mars et la Terre peut varier entre 8 et 40 minutes environ en raison de la rotation des planètes autour du Soleil; les planètes ne tournent pas à la même vitesse angulaire.

Cette rotation entraîne aussi des périodes de silence radio, notamment quand le relais se trouve caché derrière un autre corps (planète, Soleil, astéroïdes…).

La connexion intermittente et le problème de délai rendent les équipements TCP/IP moins efficaces dans l’espace.

On sait gérer des délais d’une demi-seconde (comme pour nos satellites géostationnés autour de la Terre), mais quand ceux-ci atteignent 8 à 40 minutes, cela demande une grande mémoire tampon (de l’ordre d’un gigaoctet et plus pour une simple connexion à 1Mb/s — c’est-à-dire 10 à 30 fois moins rapide qu’à la maison!). La mémoire tampon sert à conserver l’information reçue le temps de retrouver la connexion au réseau.

Voici une vidéo qui explique  le besoin de mémoire tampon dans un réseau où le lien de communication est intermittent.

Avoir la haute vitesse sur la dorsale ne sera pas une mince tâche. Le haut taux d’erreurs dans les transmissions en radiofréquence ralentira la transmission. Le « bruit » est ce qui cause des erreurs de transmission. Or le « bruit » n’est pas le même, dans l’espace interplanétaire, sur Mars ou sur Terre. Il faudra du matériel et des logiciels adaptés pour chaque situation.

De plus, dans l’espace, les relais devront savoir faire une chose que les relais sur Terre n’ont pas à faire : prévoir quand (et pendant combien de temps) un autre relais sera disponible. Un relais dans l’espace devra être en mesure de connaître et de calculer lui-même l’orbite des autres relais qui évoluent et s’éclipsent tout autour de lui.

Un réseau Internet dans l’espace devra se reconfigurer dans un environnement toujours en mouvement. Internet a été conçu pour cela, mais pas avec de si grands écarts.

Le problème de la relativité

Plusieurs autres motifs d’irritation peuvent surgir :

- L’alimentation des relais : les relais doivent être économes en énergie. Or les antennes les plus puissantes sont très gourmandes en énergie.

- L’espace-temps : la gravité et la vitesse des corps modifient le temps. Cette fluctuation de l’espace-temps doit être prise en compte, surtout pour des échanges critiques de commande à distance.

- L’horloge interne des appareils : les très grands écarts de température peuvent faire varier « le chef d’orchestre » qui bat la mesure pour les circuits électroniques d’un satellite et causer une désynchronisation entre les relais. La synchronisation permet aux instruments d’échanger efficacement des données entre eux.

Ces défis ne sont nullement insurmontables, mais ils ralentiront assurément la mise en place et l’efficacité d’un réseau Internet jusqu’à Mars.

Ce à quoi s’attaque Musk en premier, c’est à la mise en place d’un réseau de microsatellites autour de la Terre. Parfait. Mais pour la suite, on vient de le voir, il faudra se relever les manches.

Pour plus d’information

InterPlaNetary Internet : state-of-the-art and research challenges (PDF) (et source de l’image dans ce billet)

InterPlanetary Networking Special Interest Group (IPNSIG)  (et source de la vidéo dans ce billet)

Mercredi, à l’occasion de la Journée internationale des droits de l’homme, Amnistie internationale présentait une conférence virtuelle d’Edward Snowden. Vous pouvez voir son discours ici. Ce billet fait suite à la première partie du résumé de ses propos.

Une collecte de données « en vrac »

Pour Edward Snowden, le problème des programmes de surveillance de masse, c’est qu’on a inventé et implanté des systèmes qui surveillent des populations entières plutôt que des individus suspects. Ces programmes ne peuvent pas faire de discrimination et cibler seulement certains individus. Ils sont donc tenus de surveiller tout le monde. Snowden dit avoir vu un changement de pratique dans les 10 dernières années.

Auparavant, quand il y avait une surveillance, elle ne visait qu’un seul individu soupçonné d’agissements illégaux. Depuis les attentats du 11 Septembre, ce principe a changé pour devenir une collecte de données « en vrac ». Ces données sont ensuite analysées par des algorithmes qui décident de ce que sont ces individus, de ce qu’ils font et de ce que le gouvernement doit penser d’eux. Snowden cite l’exemple du Huffington Post qui affirmait que l’Agence de sécurité nationale (NSA) surveillait les habitudes de visionnement de pornographie de ceux qu’elle considérait comme ayant des idées politiques radicales sans toutefois que ces individus aient commis d’acte répréhensible. Le but était de les discréditer sur la place publique en raison de leurs affiliations politiques. Quand de telles initiatives secrètes changent la philosophie du gouvernement en place sans qu’on rende des comptes aux citoyens, on est vite sur une pente glissante. Même si on nous assure que les intentions sont nobles et nécessaires, on se rend compte que des individus innocents sont traités injustement.

L’efficacité n’est pas un argument pour défendre un acte criminel

Lorsque l’intervieweur demande à Snowden de décrire sa réaction à la lecture du rapport sur les techniques d’interrogatoire de la CIA, dévoilé la veille par la commission du renseignement du Sénat, celui-ci mentionne qu’il travaillait à la CIA durant les dernières années de mise en place de ce fameux programme de torture. Lui-même n’avait pas de rapport avec ce dernier, mais beaucoup de ses collègues exprimaient des inquiétudes.

Il trouve que le rapport qui vient d’être publié est exceptionnel pour plusieurs raisons. Il se dit attristé et fâché par ce qu’il y a trouvé. Il estime que les principes érigés par le procès de Nuremberg après la Seconde Guerre mondiale sont bafoués et il craint tant pour l’autorité morale des États-Unis que pour le respect des lois internationales. Si les États-Unis permettent à leurs agents de pratiquer la torture sans autre forme de condamnation, à quoi peut-on s’attendre de la part des pays sous l’emprise d’une dictature? Non seulement ce programme de torture a-t-il causé la mort d’individus sans que personne n’en soit tenu pour responsable, mais les agents impliqués ont même reçu des bonis en argent. Sans le procès des responsables, Snowden ne voit pas comment la société peut aller de l’avant.

2000px-CIA.svg

Contrairement aux programmes de surveillance de la NSA mis au jour par un lanceur d’alerte, ce sont des sénateurs qui ont dénoncé le programme de torture. N’est-ce pas là une bonne nouvelle? Edward Snowden ne le croit pas. Dans le rapport, on parle de plusieurs lanceurs d’alertes qui ont tenté de dénoncer la situation, mais qui ont été rabroués. En effet, certains témoins d’actes de torture en sont venus aux larmes et d’autres ont même demandé à être transférés pour ne plus avoir à cautionner ce genre d’actes. Malgré les efforts de certaines de ces personnes, les autorités n’ont pas mis fin au programme. En fait, le directeur de la CIA, José A. Rodriguez Jr. a simplement rétorqué à l’époque que leurs propos n’aidaient pas la cause. Selon Snowden, si de tels actes criminels ont pu continuer à être commis, ce n’est pas parce que personne ne le savait, mais parce que le grand public ne le savait pas. Le programme ne s’est arrêté que lorsque les journaux l’ont informé de ces actes.

La publication du rapport est un bon pas dans le sens où elle amène à reconnaître certains gestes, mais elle ne fait rien pour la responsabilisation de ceux qui les ont commis. Les résultats de ce genre de programmes importent peu. Le fait qu’ils soient ou non efficaces ne peuvent pas en dédouaner les auteurs. Jusqu’où les autorités iront-elles? Si ce genre de crimes peut se justifier dans certaines circonstances, qu’est-ce qui ne pourrait pas l’être? Snowden donne l’exemple du viol. Un gouvernement pourrait revendiquer que le viol est une méthode « efficace » contre la crise démographique et, donc, que cela « aide » la société dans son ensemble. L’efficacité n’est pas un argument en faveur d’une activité criminelle quelle qu’elle soit.

L’Europe : berceau d’une réforme de la collecte de données

Adward Snowden dit qu’il n’est qu’un lanceur d’alerte et qu’il n’a plus accès à aucun dossier secret depuis Hong Kong. Toutefois, ce qu’il peut confirmer (et redire), c’est que les programmes de surveillance de masse sont en vigueur dans tous les pays qui peuvent se permettre d’avoir une agence de renseignement. Snowden souhaite qu’on se pose la question de la moralité des actions des autorités même si celles-ci défendent l’efficacité d’une méthode. Est-il moralement acceptable de violer les droits d’une population entière ou même d’un seul individu pour un gain, quel qu’il soit? Snowden ne croit pas que le débat ait véritablement eu lieu en France, lieu de la conférence.

images (2)

Snowden croit que les grandes lignes d’une réforme sur la collecte de données commence en Europe avec des préoccupations autour de la protection de l’information, notamment. Il juge que le plus important est de créer des standards internationaux pour indiquer ce qui est acceptable ou non. Snowden donne l’exemple du Royaume-Uni où le GCHQ (Government Communications Headquarters), l’agence de renseignement, a piraté les communications du câblodistributeur belge Belgacom. Elle a agi en contrevenant à la loi belge, mais aussi aux lois internationales. C’est très dangereux de voir des États membres de l’Union européenne s’adonner à des cyberattaques contre d’autres États de l’UE. En ce moment, comme il n’y a pas de façons de gérer le problème, pas de recours, les autres pays membres pourraient faire la même chose parce qu’ils y verraient aussi un avantage pour eux-mêmes. Quand plusieurs se mettent à attaquer une seule et même infrastructure, celle-ci va finir par tomber. Ce genre de choses est arrivé dans le passé et va continuer de se produire.

Pour une meilleure protection des lanceurs d’alerte

En forçant les tribunaux à scruter ces programmes à loupe, les citoyens vont pouvoir se demander s’il est justifié d’utiliser de telles méthodes, de véritables gestes de guerre faits en temps de paix relative. Snowden voit une occasion pour la société civile de reprendre le contrôle. S’il est possible d’imaginer de quelle façon la surveillance de masse peut être utile, il n’y aucune preuve de cette utilité dans les 10 dernières années. La surveillance de masse n’a pas empêché les attentats du marathon de Boston, ni ceux de Madrid et de Londres malgré les milliards et tout l’effectif humain investis. Ces ressources ne pourraient-elles pas servir à meilleur escient sans pour autant menacer nos droits et libertés?  Snowden croit que oui.

Avec le rapport sur la torture, il voit un gouvernement qui aurait dû reconnaître ses torts. Le peuple ne savait pas ce qui se passait et maintenant qu’il le sait, le système judiciaire ne cherchera pas à punir les coupables. Snowden a terminé l’entrevue sur un vibrant plaidoyer pour la protection des lanceurs d’alerte à l’intérieur d’un pays. Si quelqu’un révèle des preuves d’actes répréhensibles, son pays devrait l’aider à corriger ces problèmes et lui assurer une protection contre d’éventuelles représailles. De toute évidence, à la lumière des réactions des autorités américaines au rapport sur la torture, le souhait de Snowden n’est pas en voie de se réaliser.