mercredi 20 juillet 2011

La mort d'internet se confirme un peu plus à Bruxelles

Les grands patrons des télécoms réunis par Bruxelles pour plancher sur les modes de financement du très haut débit à court terme dans l'Union Européenne ont accouché, sans surprise, d'une série de propositions qui enterrent la neutralité du net au profit d'un accès à plusieurs internets, plus ou moins riches selon l'abonnement payé. Des propositions qui enfoncent la porte déjà ouverte par la Commission Européenne.
Souvenez-vous. C'était en mars dernier. Sans grand bruit, la Commission Européenne réunissait à Bruxelles près d'une quarantaine de grands patrons des télécoms : Steve Jobs (Apple), Xavier Niel (Free), Stéphane Richard (Orange), Jean-Phillipe Courtois (Microsoft), Jean-Bernard Lévy (Vivendi), Stephen Elop (Nokia),..
La réunion avait pour but de demander aux industriels comment, selon eux, "assurer au mieux les investissements de très haut niveau du secteur privé nécessaires pour le déploiement des réseaux haut-débit de prochaine génération pour maintenir la croissance d'internet". La Commission souhaite en effet rendre possible l'objectif fixé par l'Agenda Numérique de l'Europe, qui prévoit que tous les Européens aient accès à Internet à 30 Mbps minimum d'ici 2020, et au moins la moitié d'entre eux à 100 Mbps.
Pour élaborer les propositions, un groupe de pilotage composé avait été désigné, composé par Jean-Bernard Lévy de Vivendi, Ben Verwaayen d'Alcatel-Lucent, et René Obermann de Deutsche Telekom. "Preuve qu'il y a dès la composition du groupe la volonté de trouver un équilibre entre le financement des réseaux et le financement des contenus, ce qui n'est jamais très bon signe pour la neutralité du net", pressentions-nous alors.
Le résultat est encore pire que nos craintes de l'époque, et confirme la tendance exprimée par la Commission Européenne le mois dernier, lorsqu'elle a dit vouloir privilégier le libre marché à la défense de la neutralité du net.
11 propositions pour enterrer la neutralité des réseaux
Lors d'une seconde réunion le 13 juillet dernier, les trois compères ont en effet remis une série de 11 propositions, insoutenables pour les partisans de la neutralité du net. Prenant l'objectif européen comme une aubaine pour prétendre que le déploiement du très haut-débit à court terme ne peut se faire sur les mêmes bases que précédemment, le groupe conclut que l'Europe "doit encourager la différenciation en matière de gestion du trafic pour promouvoir l’innovation et les nouveaux services, et répondre à la demande de niveaux de qualité différents". Il s'agit donc de faire payer plus cher ceux qui souhaitent accéder sans bridage à certains services qui demandent davantage de bande passante, ou "une moindre latence, ce qui est capital dans le jeu vidéo", explique le patron de Vivendi à la Tribune.
Il est aussi clairement envisagé de permettre aux éditeurs de services d'acheter un accès privilégié aux abonnés à Internet, pour que leur service soit plus rapide que celui des concurrents qui ne paieraient pas la dîme. "La valorisation du potentiel des marchés bifaces apportera plus d’innovation, d’efficacité et un déploiement plus rapide des réseaux de nouvelle génération, au bénéfice des consommateurs et des industries créatives", croit pouvoir affirmer le groupe de travail.
Par ailleurs, il justifie l'absence de représentants d'organisations de citoyens et de consommateurs parmi la quarantaine de dirigeants consultés par Bruxelles. "Les intérêts à long terme des consommateurs coïncident avec la promotion de l’innovation et l’investissement". Ils n'ont qu'à subir la mort de la neutralité du net, c'est au final dans leur intérêt, assurent les patrons des télécoms.
Dans La Tribune, Jean-Bernard Lévy raconte que la réunion du 13 juillet s'est "formidablement mieux passée que l'on ne pensait", et qu'elle a parmi de découvrir "un degré de consensus remarquable et inattendu entre ces acteurs de toute la chaîne de valeur, opérateurs, fabricants, agrégateurs, éditeurs de chaînes, etc". En oubliant, au passage, que les internautes sont les premiers acteurs de cette chaîne de valeur. Non seulement parce qu'ils payent leur accès à Internet. Mais aussi parce qu'ils sont aujourd'hui, et de très loin, les premiers producteurs des contenus qui y circulent.
Article diffusé sous licence Creative Common by-nc-nd 2.0, écrit par Guillaume Champeau pourNumerama.com

Faudra-t-il bientôt manger cinquante fruits et légumes par jour ?

ALIMENTATION


PAR AGNÈS ROUSSEAUX (16 SEPTEMBRE 2010)
Vitamines A, B ou C, Oméga 3, oligo-éléments, fer... Les nutriments sont indispensables à notre organisme et à sa longévité. Plusieurs études nous alertent sur la faiblesse des fruits et légumes « modernes » en nutriments. Alors qu’une pêche suffisait en 1950 pour absorber une bonne ration de vitamine A, il faudrait aujourd’hui en croquer une vingtaine ! Où sont passées ces vitamines ? Que disent les chercheurs ? L’industrie agro-alimentaire en profite-t-elle ?Basta ! a mené l’enquête.
  • Réagir à cet article
  • Recommander à un-e ami-e
  • Augmenter la taille du texte
  • Diminuer la taille du texte
  • Imprimer
« Mangez au moins 5 fruits et légumes par jour », recommande le Programme national nutrition santé. Peut-être faudra-t-il bientôt en manger cinquante... Côté nutriments, nos aliments semblent montrer quelques faiblesses. Prenez une orange : celle des années 2000 aura sans doute meilleure mine que les oranges des années 50. Et pourtant… L’orange moderne contient cinq fois moins de fer. Idem pour les pêches. Plusieurs études révèlent cette perte de « densité nutritionnelle ». C’est la quantité de nutriments (vitamines, minéraux...) qu’un aliment contient comparé à son nombre de calories. Des chips ou une pizza ont, par exemple, une très faible densité nutritionnelle comparés à des lentilles ou des brocolis [1]. Le problème de la perte de densité nutritionnelle des fruits et légumes commence à être soulevé aux États-Unis, au Canada et en Grande-Bretagne (voir en fin d’article). En France, silence radio du côté des pouvoirs publics et des instituts de recherche. Nos fruits et légumes échapperaient-ils à cette malédiction ?
Vitamine A : 1 pêche de 1950 = 26 pêches de 2010
Depuis 1950, des chercheurs mesurent le contenu nutritionnel de l’alimentation. À côté des glucides, protides et autres lipides, la présence de micro-nutriments – vitamines, minéraux, oligo-éléments, acides gras et acides aminés – est indispensable à notre santé. Or dans les années 1950, manger une banane, une orange et une pêche, suffisait à pourvoir les « apports journaliers recommandés » (AJR) d’une personne en vitamine A. Aujourd’hui, vu les teneurs en nutriment, il faudrait 5 bananes, 10 oranges, et 26 pêches pour avoir sa dose de vitamine A ! C’est ce que révèle une étude menée au Canada en 2002 et publiée par le premier quotidien du pays, The Globe and Mail, et la chaîne de télévision CTV News. Cette étude compare les tableaux de nutriments publiés à différentes époques, avec les taux de vitamines et minéraux contenus dans 25 fruits et légumes.
Résultats ? En un demi-siècle, la pomme de terre a perdu plus de la moitié de sa vitamine C et de son fer, plus d’un quart de son calcium. Et 100 % de sa vitamine A, un nutriment indispensable au développement des cellules et au fonctionnement du système immunitaire ! Selon cette étude canadienne, quasiment 80 % des aliments testés ont vu leur teneur en calcium et en fer diminuer.
Où sont passées nos vitamines ?
Des chercheurs remettent en question ces analyses, au motif que les mesures se sont grandement affinées depuis un demi-siècle. L’évolution des méthodes de test et le manque de fiabilité des données historiques fausseraient donc les résultats. Mais des études récentes, qui consistent à planter des variétés végétales modernes et historiques côte à côte, avec des pratiques agronomiques comparables, viennent confirmer la perte d’éléments nutritifs dans les aliments. Le rapport Still No Free Lunch de Brian Halweil, du World Watch Institute (États-Unis), publié en 2007 fait le bilan des études existantes. Et met en évidence cette « dilution en nutriments » généralisée.
Quelles sont les causes de ce phénomène ? Les méthodes agricoles d’abord : l’utilisation intensive de pesticides et d’herbicides, les excès d’engrais qui augmentent la vitesse de croissance des plantes et diminuent proportionnellement le temps de fixation des micronutriments. Les techniques intensives épuisent aussi les sols, dont la teneur globale en nutriments diminue dans certaines zones. En cause également, selon Brian Halweil, les traitements de conservation et les rallongements du temps de transport. Un aliment parcourt en moyenne 2.500 kilomètres avant d’être consommé ! Certains fruits, cueillis trop tôt, n’ont pas le temps de développer les nutriments liés à l’ensoleillement, comme les anthocyanines ou polyphénols, ces composants qui nous protègent contre le cancer ou la détérioration des cellules du cerveau. Quant au taux de vitamine C dans les pommes et abricots cueillis verts : il est proche de zéro !
Obèse et sous-alimenté
En cause également, les pratiques de sélection des plantes selon leur rendement. Les agriculteurs préfèrent les plantes qui poussent vite, produisent beaucoup et ont une belle apparence. Mais plus le rendement est élevé, moins la plante dépense d’énergie à absorber des oligo-éléments, et plus la teneur en nutriments est faible.
Nos régimes alimentaires sont déjà pauvres en nutriments. 70 % de ce que nous mangeons provient de produits industriels, beaucoup moins riches en vitamines. Nous consommons de plus en plus de « calories vides » : des aliments contenant des quantités élevées de gras et de sucre ajouté et très peu de nutriments par calorie. Si même les fruits et légumes ne nous assurent plus notre ration quotidienne...
Pour Brian Halweil, il s’agit d’un « paradoxe moderne unique » : nous pouvons à la fois trop nous nourrir (en calories) et rester sous-alimenté (en nutriments). Si près d’un milliard de personnes souffrent de la faim dans le monde, plus de 3 milliards – soit la moitié de la planète – subissent une déficience en nutriments. Avec des conséquences qui vont de l’anémie, en cas de déficience en fer, à la cécité pour ceux qui manquent de vitamine A. L’étude Suvimax (Supplémentation en vitamines et minéraux antioxydants) menée de 1994 à 2003 en France par l’Inserm, a testé l’effet d’un apport en vitamines et minéraux antioxydants [2] à des doses proches de celles qu’on peut attendre d’une alimentation saine. Au bout de sept ans et demi, on observe chez les hommes une diminution de 31 % du risque de cancers et une diminution de 37 % du risque de décès. Les nutriments, c’est vraiment bon pour la santé !
Faut-il manger 3 kg de brocolis par jour ?
« Pour se développer et fonctionner au mieux, les humains ont besoin d’une diversité d’aliments et de nutriments dans leur alimentation. Notre système immunitaire ne fonctionne pas de manière optimale quand nous sommes déficients en certains nutriments. Notre capacité à éviter les maladies, du cancer au simple rhume, est compromise », souligne Brian Halweil. Selon le ministère de l’Agriculture états-unien, notre « régime alimentaire est plus compromis par la consommation de nourriture industrielle que par le déclin des niveaux de nutriments dans les fruits et légumes » [3]. Est-ce une raison pour laisser nos fruits et légumes se vider de leurs substances ?
Certains scientifiques pointent le fait que la densité en nutriment baisse dans chaque grain de blé ou la moindre feuille de salade. Mais grâce aux progrès en terme de rendement, il y aurait au final plus de nutriments produits par hectare. Ce qu’illustre le généticien Mark Farnham, spécialiste du brocoli au « US Vegetable Laboratory » : grâce à la taille plus importante des brocolis modernes, on trouve sans doute plus de calcium et de magnésium dans chacun d’entre eux, nuance-t-il. « Mais la plupart des gens ne mangent pas un brocoli entier en une seule fois », rétorque Brian Halweil.
En France, on s’enthousiasme pour les nano-capsules...
Du côté de l’Institut national de la recherche agronomique (INRA), ce genre de débat semble bien lointain. « La baisse de densité nutritionnelle des fruits et légumes ? C’est une rumeur, le type d’information qui circule… mais est-ce avéré scientifiquement ? », s’interroge Jean-Michel Chardigny, directeur de l’Unité nutrition humaine de l’INRA à Clermont-Ferrand, la plus grosse unité s’occupant d’alimentation humaine. « Je n’ai pas connaissance d’études là-dessus, ce n’est pas un sujet très documenté », explique-t-il à Basta !... Au moins sept études sur le sujet ont été publiées depuis 15 ans (lire ci-dessous).
À l’INRA, on travaille surtout sur « le nutriment ». Les chercheurs « sont mal armés pour mesurer la complexité des apports des aliments », justifie Jean-Michel Chardigny. « La question de la densité nutritionnelle ne se pose pas. Il est important que les gens consomment des quantités élevées de fruits et légumes. C’est lié au volume global, pas à la densité », ajoute Cécile Renard, directrice de recherche à l’INRA et responsable d’une équipe qui travaille sur la qualité des fruits et légumes.
On préfère s’occuper « d’adressage » ou de « vectorisation » : trouver la formulation qui permette au nutriment – des Omégas 3, par exemple – d’aller sur la bonne cible plutôt que de se diluer dans l’organisme. Une façon d’associer les molécules entre elles pour qu’elles ne se dégradent pas de la même façon une fois ingérées. Des recherches qui incluent aussi les nanotechnologies. « Il faut être prudent. On peut court-circuiter la régulation mise en place par l’organisme, avertit Jean-Michel Chardigny. Le fer par exemple, ingéré à l’échelle nano, est absorbé à 100 %, alors que ce taux est de 30 % normalement car il ne franchit pas la barrière intestinale. Avec les nanos, c’est comme si on avait une perfusion en intraveineuse. Cela peut être positif ponctuellement ». Réjouissant, non ?
Éveillez votre « conscience nutritionnelle » !
Quand il n’y aura plus de nutriments dans les produits agricoles, on pourra toujours se les injecter manuellement, via des nano-capsules… De quoi révolutionner la configuration des repas de familles ! Autre solution proposée par l’industrie : manger des nutriments artificiels ou des aliments enrichis. « Depuis quelques années et grâce à la mobilisation de l’ensemble des acteurs – corps médical et scientifique, pouvoirs publics, industriels – la conscience nutritionnelle des consommateurs français s’est éveillée », se félicite le Syndicat de la diététique et des compléments alimentaires.
Selon un sondage mené en 2008 pour cet organisme par TNS Sofres, 37% des Français « consomment des compléments alimentaires afin de conforter leur capital santé ». Un marché qui représente un chiffre d’affaires annuel de plus d’un milliard d’euros (en 2008). Quitte à gérer la santé comme un capital, il peut paraître plus rentable d’acheter des doses de vitamines ou d’oligo-éléments, que d’essayer de repenser les politiques agricoles et alimentaires. Surtout quand cela arrange l’industrie agro-alimentaire. Au moins pourrait-on espérer que les instituts de recherche en France puissent nous dire exactement ce que nous mangeons, et surtout si ces aliments nous nourrissent encore. Ce qui n’est même pas le cas.
Agnès Rousseaux

Notes

[1] Voir la définition du Programme national nutrition santé (PNNS)
[2] Vitamines E et C, zinc et sélénium, bêtacarotènes.
[3] United States Departement of Agriculture, Agricultural Research Service : USDA Nutrient for Database Reference, Release 13, 1999

jeudi 14 juillet 2011

Et nous assistâmes, les bras ballants, à la privatisation du web

Publié le lundi 27 juin 2011, par Raphaël Meltz


Régulièrement on nous pose la question. Ou alors on nous propose. Pourquoi Le Tigre n’est pas sur Facebook, sur Twitter ? Vous voulez qu’on s’en charge ? Je réponds poliment - pas toujours poliment - que non merci ça ira très bien comme ça. Encore faudrait-il se justifier. Voici quelques explications.Le tigre
Il faut se méfier des métaphores avec lesquelles on peut tout dire, et son contraire. Mais tout de même : imaginez. En bas de chez vous, il y a une route, vous pouvez l’emprunter, vous y croiserez d’autres gens, des inconnus, il vous faudra éventuellement éviter les crottes de chien et les nids de poules, et la circulation est régie par un code de la route que nul n’est censé ignorer, et dont les règles ont été fixées de manière démocratique par un État. Et voilà soudain que, au-dessus de cette route, une nouvelle route est construite, par une entreprise privée. Cette route est indéniablement plus belle, plus propre, mieux entretenue que l’autre ; elle est aussi plus pratique : plein de petits services ont été ajoutés. On peut boire des cafés gratuitement à des bornes. On peut écouter de la musique gratuitement. Il y a surtout un avantage incroyable : sur cette route, on ne croise que les gens qu’on a choisi de voir. Les autres ne nous voient pas ; on ne les voit pas. S’il le faut vraiment (et parfois il le faut parce que des rétrogrades refusent d’emprunter cette route, alors qu’elle est gratuite), on peut trouver parfais des passerelles vers la route du bas, la vieille moche. Bien sûr, il y a des publicités le long de cette route, mais finalement il y en avait aussi sur celle du bas. Bien sûr, il faut s’inscrire pour aller sur cette route, pas comme l’autre, ouverte à tous.
La métaphore est facile à décoder : la route du bas, c’est le monde du web traditionnel. Un réseau ouvert et libre, régi par des règles discutées dans des organismes internationaux à but non lucratif. Avec des protocoles permettant de créer différents types de communication : sites web, emails, peer-to-peer (c’est-à-dire transfert de fichiers d’ordinateurs uniques à ordinateurs uniques, de manière décentralisée), etc. La route du haut, c’est celle de Facebook, qui est en passe de réussir le hold-up le plus stupéfiant de l’histoire de l’humanité, puisque 500 millions d’individus ont, d’eux-mêmes, fait le choix de s’y inscrire et de l’utiliser majoritairement pour communiquer. Facebook est un site entièrement privé, qui utilise des protocoles qui lui appartiennent. Financé par la publicité, il offre en effet de multiples services gratuits (vous rappeler que c’est l’anniversaire d’Untel, lui envoyer automatiquement une carte de voeux animée, lui faire voir en vidéo « Happy birthday Mr. President », etc.). Et si des passerelles existent encore vers le web (un simple lien vers un bon vieux site), Facebook fait tout pour les minimiser : plus les utilisateurs restent sur Facebook, plus leur valeur auprès des annonceurs est forte.
Je passe sur la question de la vie privée, qui - semble-t-il - est davantage médiatisée depuis un certain temps [1]. Je rappelle néanmoins, ou je l’apprends à ceux qui l’ignorent que, depuis que la grande majorité des sites web placent un bouton « J’aime » relié à Facebook, la société américaine a accès, outre toutes les informations que vous avez publiées, à l’ensemble de l’historique de votre navigation web. Là encore, le profit pour eux est évident : vos centres d’intérêt étant mieux connus, il sera plus facile de vous exposer à de la publicité ciblée.
Il est par ailleurs frappant de constater que la plupart des utilisateurs de Facebook ne savent pas que tout ce qui est publié sur ce site lui appartient de facto. En effet, les conditions d’utilisation précisent que toute personne qui s’inscrit sur Facebook accorde à l’entreprise « une licence non-exclusive, transférable, sous-licenciable, sans redevance et mondiale pour l’utilisation des contenus de propriété intellectuelle ». Ce qui veut dire, en clair, que Facebook peut faire ce qu’il veut du contenu posté sur son site. Photographes, vous mettez vos photos sur Facebook, ils peuvent les publier en affiches. Humoristes, vous testez vos plaisanteries sur Facebook, ils peuvent les éditer en recueils. Amoureux, vous écrivez un beau message à votre promise sur son mur Facebook, ils peuvent le vendre en cartes postales. Musiciens : vous faites écouter votre dernier titre sur Facebook, ils peuvent le sortir en album. Et ainsi de suite. Le tout, évidemment, sans que vous ne touchiez le moindre centime.
On peut se dire, après tout, que tant pis : c’est librement consenti, c’est ainsi, depuis que le monde est monde par paresse ou par manque de temps ou de compétences, on s’en remet à d’autres. Nous sommes, pour la plupart d’entre nous, bien incapables de régler un problème mécanique sur notre voiture, ou de souder un tuyau de plomberie. C’est vrai. Mais ce qui se passe avec l’Internet est un peu plus étonnant - et un peu plus grave. En effet, tout était – je dis bien était – possible en termes d’outils pour que l’on crée exactement les mêmes services que ceux des grosses multinationales, mais en version ouverte. Prenons le cas de Twitter, un outil de micro-blogging qui permet de suivre simplement d’autres personnes ou des thèmes spécifiques. Le tout en temps réel. Techniquement, c’est simple, voire simpliste à concevoir – si tant est qu’on se mette d’accord, en amont, sur la technologie à suivre. Évidemment, se pose le problème des serveurs et des réseaux : qui stocke l’information, qui la fait circuler ? C’est là que le peer-to-peer [2] peut jouer un rôle : il suffirait que chacun accepte que son ordinateur participe un peu à la tâche collective. Utopique ? Pas du tout : c’est cette technologie qui permet le transfert de fichiers, hors de toute centralité, et notamment pour les téléchargements illégaux (mais également les téléchargements légaux). Il aurait donc été très simple de concevoir, collectivement, un outil de micro-blogging instantané. Certes, direz-vous, encore fallait-il en avoir l’idée. Twitter a eu l’idée, ils ont gagné, c’est la liberté d’entreprendre qui est en jeu. Oui et non. Bien sûr si une société a une bonne idée, tant mieux pour elle [3]. Mais on peut poser des limites à cela : si demain j’ai l’idée de créer une école révolutionnaire pour que les élèves aient le bac à 12 ans, l’État ne me laissera pas faire, tout simplement parce que l’éducation est un service public (ou concédé selon des règles bien précises). La communication doit-elle être un service public ? Franchement, il semble évident que oui. Plus exactement, ce devrait être un service mondial autogéré qui oblige tout le monde à se mettre d’accord. Là non plus, ce n’est pas une utopie, puisque cela existe dans le cas du HTML (le langage de base pour concevoir des sites web) : le W3C (World Wide Web Consortium) se charge, depuis 1994, d’harmoniser le langage et de le faire évoluer.
Dans les années 1990, les pionniers de l’Internet apprenaient à coder en HTML. Au début des années 2000, ils passèrent à des sites dynamiques permettant, à partir d’une structure fixe, de faire vivre un site sans forcément coder chaque nouvelle page : l’ère des CMS (Content Management System) débutait. Les principaux CMS (Spip, Drupal, ou Wordpress) ont la particularité d’être opensource (on a accès au code qui fait tourner la chose) et libres (on peut les modifier comme on le désire). Les blogs firent florès par milliers. À l’époque (et c’est toujours le cas aujourd’hui), hormis les très bons informaticiens capables d’installer leurs sites à domicile, il y avait deux choix possibles. Soit payer pour avoir un hébergement, soit s’inscrire sur un espace gratuit qui, en échange, propose de la publicité (over-blog, blogspot, etc.). Cette période marque donc les débuts de la simplification du web (n’importe qui peut ouvrir un blog, c’est « gratuit »), mais aussi du début du renoncement.
Ce que font Facebook ou Twitter aujourd’hui est en effet la poursuite de cette politique, mais de manière monopolistique. Facebook fonctionne sur un principe vertueux (pour eux) : plus de gens s’inscrivent chez eux, plus ils sont incontournables, et donc plus de gens s’y inscrivent. Sauf que, et il faut le rappeler, la notion d’email fonctionnait de la même façon : plus les gens ont un mail, plus c’est simple de communiquer par mail. Et c’était le même cas pour le téléphone : plus de gens ont le téléphone, plus c’est utile d’avoir le téléphone. Mais le téléphone était un monopole public, pas privé (ce n’est plus le cas aujourd’hui – mais du moins aujourd’hui reste-t-il en France une autorité administrative qui régule le secteur [4]).
Facebook échappe à toute forme de contrôle : c’est une société privée, qui fait ce qu’elle veut. Elle a beau jeu de rappeler que, évidemment, chacun est libre de s’inscrire ou non. C’est vrai. Mais elle fait tout pour que tout le monde bascule chez elle. Y compris des... services publics. Un rapide tour du web permet de voir qu’en 2011, on peut entre autres trouver une page Facebook (officielle) de la DGIS (Direction générale de la compétitivité, de l’industrie et des services, rattachée au ministère de l’Économie), de Proxima mobile (le « portail de services aux citoyens sur téléphone mobile », créé par le secrétariat d’État au numérique), ou encore de l’Agence du service civique (un GIP, Groupement d’intérêt public). Quant au ministère des Finances, il possède un compte Twitter, sobrement intitulé @_Bercy_ [5]. La liste n’est bien sûr pas exhaustive.
Les pouvoirs publics ont, dans les dernières années, fini par admettre que les logiciels libres étaient une bonne chose : nombre d’administrations utilisent dorénavant OpenOffice (plutôt qu’Office de Microsoft), ou Thunderbird (plutôt que Outlook de Microsoft). Mais, face aux réseaux sociaux, on ne les entend qu’à peine [6]
Même les militants du libre semblent baisser les bras. Le site Framasoft, qui promeut l’usage des logiciels libres, a certes ouvert un compte sur identi.ca, le concurrent libre et opensource de Twitter [7] : car il en existe bien un, tout comme il existe une alternative opensource et surtout décentralisée à Facebook : Diaspora. Quatre informaticiens, financés par des dons (dont un de Marck Zuckerberg, le patron de Facebook [8]), ont déjà livré une première version de cet outil. Comme dans le cas de tous les logiciels libres (voir l’histoire de Firefox vs. Internet Explorer), il suffirait qu’un cercle vertueux se mette en place pour que ce nouveau système prenne la place de l’autre.
Alors pourquoi est-ce que Framasoft, farouche défenseur du libre, est tout de même sur Twitter ? « Parce qu’étant le réseau le plus fréquenté c’est celui qui nous permettra de toucher le plus large public, et d’attirer de nouveaux lecteurs dans nos filets. » [9] Ah, ce vieil argument du « on va aller chercher les gens et ensuite on va les faire évoluer... » Il se défend, certes – un peu comme lorsque The Sun met une fille aux seins nus en page 3 de son journal : c’est autant de Britanniques qui continuent à lire la presse papier...
Quelques visiteurs réguliers de Framasoft site expriment leur opposition à cette nouveauté : « Sincèrement, je n’arrive pas à comprendre l’attrait de cette dernière innovation du Web 2.0. J’avoue que parfois j’en ai la nausée, tant ces « innovations » arrivent vite, toutes plus clinquantes les unes que les autres (Facebook, Twitter, etc.). Pour quel bénéfice humain ? » (Jack.) « Quand on voit que des nouveautés révolutionnaires telles que la décentralisation d’un réseau (Internet) tend à disparaître aujourd’hui, remplacée par des services gigantesques centralisés... C’est donc ça le web2.0 ? Très peu pour moi. » (Nookie.) Et Jack de se demander, face à son peu d’empressement à suivre le mouvement : « Suis-je un phénomène isolé ? »
Toute la question est là. Pourquoi aussi peu de personnes se sentent-elles impliquées par la mort du web tel qu’il avait été conçu ? Pourquoi, lorsque Apple fait tout pour que les utilisateurs d’Ipad et d’Iphone ne naviguent plus sur l’Internet mais utilisent des applications que la société choisit (et censure le cas échéant), les utilisateurs ne se révoltent pas ? Pourquoi tant d’internautes se sont élevés contre la loi Hadopi, qui réprime le téléchargement illégal, voyant dans l’interventionnisme de l’État un scandale, alors qu’ils considèrent normal qu’une société privée décide des contenus auxquels ils peuvent avoir accès sur leur terminal mobile ?
On peut trouver qu’il y a des problèmes plus graves, dans le monde, que les bouleversements qui agitent l’Internet. C’est certainement vrai. C’est sans doute pour cette raison que la plupart d’entre nous assistons, les bras ballants, à la privatisation du web. Le Tigre, en ce qui le concerne, refusera toujours d’en être le complice. Et n’aura donc jamais de page sur Facebook, ni sur Twitter.