Aller au contenu | Aller au menu | Aller à la recherche

JSF in the cloud : Finding the PaaS - Part 1 : Google App Engine

Short intro

Google App Engine is google PaaS offer. It is a fully managed PaaS. It promises automatic load balancing and handling. Given the identity of the provider, I tend to think it works.

To use Google App Engine, you must have a Google Account. Then, you can access some free offers. Currently, this incudes USD 300 in credit to spend on all Cloud Platform products over 60 days.

The simpliest way to go IMO is to follow the official "Getting started".

The only official technical requirements are Maven 3.1 and Java 7 (which are both pretty much standard).

Creating a project

Your new project will be created in two steps :

For maven users, this is just straightforward.

I created and lptestgcloud2 app in my free account then generated the app skeleton with :

mvn archetype:generate -Dappengine-version=1.9.15 -Dapplication-id=lptestgcloud2

and chosing the first proposal :

Full log :

Choose archetype:
1: remote -> (A skeleton application with Google App Engine)
2: remote -> (A skeleton project using Cloud Endpoints with Google App Engine Java)
3: remote -> (A guestbook application with Google App Engine)
4: remote -> (A simple starter application using Cloud Endpoints with Google App Engine Java)
5: remote -> (-)
Choose a number or apply filter (format: [groupId:]artifactId, case sensitive contains): : 1
Choose version: 
1: 1.8.7
2: 2.0.0-1.9.10
Choose a number: 2: 
Define value for property 'groupId': : fr.penet
Define value for property 'artifactId': : testgcloud2
Define value for property 'version':  1.0-SNAPSHOT: : 
Define value for property 'package':  fr.penet: : 
[INFO] Using property: appengine-version = 1.9.15
[INFO] Using property: application-id = lptestgcloud2
Confirm properties configuration:
groupId: fr.penet
artifactId: testgcloud2
version: 1.0-SNAPSHOT
package: fr.penet
appengine-version: 1.9.15
application-id: lptestgcloud2

The following source tree is generated :

── eclipse-launch-profiles
│   ├── DevAppServer.launch
│   └── UpdateApplication.launch
├── nbactions.xml
├── pom.xml
└── src
    ├── main
    │   ├── java
    │   └── webapp
    │      └── WEB-INF
    │           ├── appengine-web.xml
    │           ├──
    │           └── web.xml
    └── test

eclipse-launch-profiles files are used by eclipse to provide shortcuts to debug and publication of the app. As I prefer netbeans to eclipse, the nbactions.xml file is more interesting to me. It contains custom actions that will be proposed for the project under this IDE.

netbeans is not officially supported, but, in addition to the nbactions.xml file, one can use the gaelyk plugin. Its latest version, for Netbeans 7.4, is compatible with Netbeans 8. With this plugin, you can test, debug, profile and upload your webapp.

The original pom.xml is quite short :

<?xml version="1.0" encoding="UTF-8"?>
<project xmlns="" xmlns:xsi="" xsi:schemaLocation="">





        <!-- Compile/runtime dependencies -->

        <!-- Test Dependencies -->

        <!-- for hot reload of the web application-->
                        <!-- in order to interpolate version from pom into appengine-web.xml -->

                    <!-- Comment in the below snippet to bind to all IPs instead of just localhost -->
                    <!-- address></address>
                    <port>8080</port -->
                    <!-- Comment in the below snippet to enable local debugging with a remove debugger
                         like those included with Eclipse or IntelliJ -->
                    <!-- jvmFlags>
                    </jvmFlags -->

Dependencies on, javax.servlet:servlet-api:2.5 and jstl:jstl:1.2 , a few plugins configuration and that's all.

Adding the stack components

First thing is to add dependencies to MyFaces 2.2.6, Primefaces 5.1, Deltaspike 1.1 and OpenWebBeans 1.2.7-SNAPSHOT.

    <!-- JSF -->

    <!-- primefaces -->

    <!-- Specifications -->
    <!-- JSR-330 -->
    <!-- JSR-299 -->




     <!-- OpenWebBeans -->







I use Primefaces 5.1 there only because it is the latest community version available. It is however crucial to use the version I indicate or later for the other packages :

  • MyFaces 2.2.6 corrects MYFACES-3923 . As Google App Engine is "only" servlet spec 2.5, it is required. GAE being servlet 2.5 rather than 3.0 is not big deal.I can see no other feature than jsf file upload that will not work, and other solutions are available.
  • OpenWebBeans 1.2.6 does not work because it uses sun.misc.Unsafe. Google App Engine uses a somewhat strict whitelist mechanism, which prevents access to this class. In 1.2.7-SNAPSHOT, Mark Struberg commited a patch that falls back to java.lang.Class#newInstance in this case. I am not sure that this solution is the best one. I proposed a patch to 1.5.0-SNAPSHOT that leverages google reflection API.

We also have to modify the appengine-web.xml file as explained in this useful blog on JSF Corner. So, our appengine-web.xml file is now :

<?xml version="1.0" encoding="utf-8"?>
<appengine-web-app xmlns="">
        <property name="java.util.logging.config.file" value="WEB-INF/"/>

      <exclude path="/**.xhtml" /> 

As explained in JSF Corner, we have to provide our own EL 2.2 implementation. After toying a bit, I found not better solution than JSF Corner' one, so let's also add a dependency on org.jboss.el:jboss-el:1.0_02.CR6


and the JBoss repository :


I also use lombok and commons-lang3 in almost all my projects :



In web.xml, we have to add a context-param to use this EL implementation :


A minimal web.xml file looks like :

<?xml version="1.0" encoding="UTF-8"?>
<web-app version="2.5" xmlns="" xmlns:xsi="" xsi:schemaLocation="">

    <display-name>Test application</display-name>
        <servlet-name>Faces Servlet</servlet-name>
        <servlet-name>Faces Servlet</servlet-name>

Finally, let's add empty beans.xml and and faces-config.xml files in WEB-INF :


<?xml version="1.0" encoding="UTF-8"?>

<beans  xmlns="" 
        xsi:schemaLocation="" />


<?xml version="1.0" encoding="UTF-8"?>
<faces-config xmlns=""
              version="2.2" />

If we start it right now with :

mvn clean install appengine:devserver

it almost works. Almost because there are still a few JNDI related errors during DeltaSpike initialization. GAE does not support JNDI. So, until we can cleanly disable it, we have to shadow the BeanManagerProvider and JNDIUtils classes.

In our BeanManagerProvider version, we shall comment the line

result = resolveBeanManagerViaJndi();

and in JNDIUtils we shall comment the static initialization block, where an attempt to access InitialContext is performer, throwing an exception :

            initialContext = new InitialContext();
        catch (Exception e)
            throw new ExceptionInInitializerError(e);

...and then, it finally works as expected. :-)


The source of this (very) simple example is downloadable there.


A few hacks are required to run this PrimeFaces/MyFaces/DeltaSpike/OpenWebbeans stack on Google App Engine. Some workarounds, like using java.lang.Class#newInstance instead of sun.misc.Unsafe can have a performance hit or even raise issues (what happens when you use a proxy for a singleton ???). However, it is still quite acceptable and usable for who wants to leverage all the features of GAE without giving up the power of JSF 2.2 and CDI extensions such as DeltaSpike.

As a tomcat user, I have to learn again how to perform access control and such things, but Google seems to offer rich, yet specific API.

It seems that you can even have Google App Engine on your own private cloud, thanks to a collaboration between Google and Red Hat that led to the project CapeDwarf

JSF in the cloud : Finding the PaaS - Part 0 : Introduction

I have been developping a lot in java those last years. For so called «enterprise» web based applications, there are so many nice libraries and packages available... Even if you are like me a C/C++ geek and think that getting too far from the hardware and forget memory allocation is an highway to performance bottlenecks, it is a good way to go, just because lots of others also travel on this road.

In the world of java webapps, I opted for a PrimeFaces / MyFaces / Deltaspike / OpenWebBeans stack, running in a Tomcat 7 container.

The first reason is my preference for open standards. I do not like to depend on a single provider.

The second reason is that all those packages are Free Software. So, one can study and modify the code, which is just always needed when you do real work.

The third reason is that all those projects, excepted PrimeFaces, are supported by the Apache Foundation. I find that it does a very good long term job of developping libraries and other valuable tools. Moreover, I prefer non-copyleft licences. The developpers of those projects know each other and collaborate. When you ask a question on Deltaspike and it happens to be an OWB question, you are friendly redirected to the right place.

The fourth reason is that all those projects have vibrant communities. I had answers to most of my questions and requests in less than a day.

The fifth reason, at least for PrimeFaces, is that they are de facto standards.

Since 2010, «cloud» has emerged as a buzz word, a magic marketing solution to all problems. Despite the regretable ton of ******, the development of Iaas (Infrastructure as a Service) and PaaS (Platform as a Service) opens new perspectives in the way we, developpers, work.

IaaS is, in very few words, a way to have hardware as a commodity. an IaaS provider such as Amazon will provide you servers and databases instances for a very low fee per hour. You then have to setup your system. PaaS goes a step further. A provider of PaaS also provides a set of libraries and tools. It upgrades and patches them as needed. It sometimes provides features such as automatic load balancing, and so on.

IaaS and PaaS can be public or private (on premise). Big organisations might have security needs that requires the second option.

There are still less PaaS offers than IaaS offers. I think that it will change given the big advantages that a good PaaS offer provides. For one developping software from scratch, it would just be very bad idea not to opt for such an offer, excepted if you have very special requirements.

I asked myself a simple question : how does my usual stack fit in the leading PaaS offers ? As this question seemed interesting to friends and colleagues, I decided to write a few blog notes on this topic. I will try to explain you how you can do JSF in the cloud in a snap (or kind of, as you will see).I will first look at Google App Engine, then OpenShift (coming soon...), then Heroku (coming soon...).

À propos du filtrage DNS

Tel Sisyphe avec son rocher, je reprends ici en une version raccourcie et légèrement actualisée au format «note» un document sur la régulation d'internet que j'avais préparé en 2010 pour... la commission Culture du PS, alors présidée par Patrick Bloche. Le document original comportait également un état des lieux des pratiques de régulation, une flopée de schémas, des principes de régulation rénovée de l'Internet, etc. Il faisait donc un peu moins de 20 pages et est donc beaucoup trop long pour être lu en ligne.

Quel recul depuis 2010... Quelle tristesse de voir l'absence de cohérence et de volonté politiques du hollandisme déboucher sur un désastre tel que la loi terrorisme... Je ne me sens bien sûr par comptable de ce que fait aujourd'hui un parti que j'ai quitté dès le lendemain de la primaire de 2011, ne devinant que trop ce que serait un "quinquennat hollande". Mais il me reste de bons amis dans ses rangs, avec lesquels j'ai pas mal de convictions en commun. Si je tente de m'impliquer (un peu) dans Nouvelle Donne aujourd'hui, je suis cependant convaincu que ces personnes et d'autres qui souhaitent le retour d'une gauche de transformation de la société ont beaucoup à faire en commun, au-delà des clivages partisans.

Si ces quelques paragraphes peuvent les aider, eux ou d'autres promoteur d'un net ouvert, ce sera déjà cela de pris...

Lire la suite...

Quelques réflexions sur «L'affaire de l'article 13 de la loi de programmation militaire»

Tentative d'analyse à chaud de la «controverse sur l'article 13 de la loi de programmation militaire».

Lire la suite...

Note sur l'article 13 de la loi de programmation militaire

Une note préparée pour quelques amis qui me demandaient mon avis sur le désormais fameux article 13 de la Loi de Programmation Militaire. Je la diffuse ici volontairement après la bataille. Le format est volontairement court (et encore, on essaye plutôt de faire une page A4 d'habitude...).

Lire la suite...

OVH + Vidéo Futur + Kartina TV ou merci la neutralité du net

Depuis quelques années maintenant, nous sommes quelques uns à batailler pour «la neutralité du net». Selon ce principe, la règle générale doit être de ne pas différencier les communications en fonction de leur nature ou de leurs interlocuteurs.

J'ai déjà écrit plusieurs billets sur ce thème sur ce blog... Je saisis l'occasion de mon récent déménagement pour illustrer l'intérêt de cette neutralité.

J'ai donc déménagé en juillet et en ai profité pour changer de fournisseur d'accès internet. Abonné depuis quelques années à Free, j'ai décidé de tester l'offre ADSL Pro d'OVH. Pourquoi ?

Je m'étais abonné à Free en 2007-2008, après avoir été de longues années un heureux abonné de Nerim, un fournisseur ADSL devenu très orienté pro et qui s'adressait encore il y a quelques années aux particuliers. Ma motivation pour quitter les eaux tranquilles de Nerim était très simple : je vivais avec celle qui allait devenir ma femme, qui avait un sérieux mal du pays et qui avait très envie de pouvoir regarder la télé de son pays d'origine, la Russie. L'offre de Free n'avait rien de bien génial, mais elle avait le mérite d'exister, et on pouvait avoir accès à quelques chaînes pour 1 euro par mois, dont notamment la première chaîne russe, en plus de l'abonnement de base. Va donc pour Free.

En juin 2013, Free avait bien changé. Ma compagne se plaignait depuis plusieurs mois de ne pas pouvoir regarder confortablement ses vidéos sur YouTube. Perso, je ne suis pas accro, mais le petit jeu auquel Free se livre en refusant "d'augmenter la taille du tuyau" le reliant à YouTube m'irrite et je me refuse à recourir à un proxy pour retrouver un débit normal. J'ai donc commencé à chercher un autre fournisseur d'accès et mon choix s'est arrêté sur OVH, entre autres parce que je trouve le discours de son DG, Octave Klaba, intelligent. Il estime, entre autres, que la mission de sa société est de fournir "un bon réseau" (je raccourcis) dont on fait ce que l'on veut ensuite. OVH fournit, en gros, "un tuyau de données", avec une facilité pour la téléphonie, ce qui évite de devoir acheter un téléphone IP. OVH ne fournit pas de télé sur ADSL ou sur IP et ne propose pas de VOD, et tant mieux. En effet, j'ai ainsi pu acheter les services de mon choix.

Côté VOD, j'ai opté pour la "box" de Vidéo Futur. Pour 10 euros par mois, les contenus accessibles "en illimité", sans surcoût, sont nombreux et d'une qualité satisfaisante. On n'a pas que des vieux nanars et l'offre enfants, et plus particulièrement "tous petits" est bien fournie, pour le plus grand bonheur de mon fils de 2 ans et demi. La VOD classique, non-illimitée, est à 2,99 euros par film, soit moins cher que sur Canal Play, par exemple. On peut pour ce prix également aller louer un DVD ou un Blu-Ray en magasin. Ce qui n'a aucun intérêt pour moi, mais peut-être que pour toi, lecteur... :-)

Côté télé, j'ai recours à la bonne vieille antenne pour les chaînes françaises. La "box" de Vidéo Futur permet, si l'on y branche l'antenne télé, de mettre en pause un visionnage, ce que j'apprécie. Sur mon téléphone portable, j'utilise parfois également Play TV, à l'interface agréable mais à l'offre limitée - j'y reviendrai.

Globalement, je trouve la box de Vidéo Futur très supérieure aux offres de VOD disponibles via la Freebox. CanalPlay, la mieux fournie en contenu, a en effet une ergonomie qui n'est pas sans rappeler le minitel couleur. Au secours.... En prime, la "box" de Vidéo Futur est capable de pré-charger le film. J'ai donc jusqu'à présent toujours pu regarder les programmes de mon choix, sans interruption, sans ces innombrables erreurs que j'avais aux heures de pointe avec le couple Free + CanalPlay.

Côté télés russes, j'ai recours à l'offre de Comparer cette offre au bouquet de chaînes russes de Free n'a pas grand sens. Kartina les propose à peu près toutes, ainsi qu'un peu de VOD, là où Free a une offre famélique. Ma compagne peut à nouveau regarder ses émissions préférées. C'est un peu comme si vous n'aviez eu que TV5 (la qualité de la sélection en moins) pendant quelques années puis à nouveau toutes les chaînes françaises accessibles par le câble...

L'offre de est vraiment attrayante, tant en terme de contenus que d'interface. J'ai déjà parlé des contenus... La box a la meilleure interface que j'ai pu voir jusqu'à présent, mêlant intelligemment les chaînes de télé, les programmes, les applis additionnelles du type facebook ou twitter, voire la navigation web. Sa télécommande a, au verso, un clavier. Chercher un film ou une émission peut se faire selon son nom... Des fonctionnalités de base que l'on aimerait trouver sur une "box" française. On peut également regarder n'importe quel programme du jour (ou de la veille, me semble-t-il) en décalé. En ajoutant une souris, on peut vraiment naviguer et faire ses actions de base en ligne. Bref, c'est le pied.

Où est la neutralité, là-dedans, me direz-vous ? Dans le fait que mon FAI se contente d'être un FAI. Qu'il s'applique à construire un bon réseau, ce pour quoi ses clients, dont mon humble foyer, le payent. Qu'il ne tente pas de tordre le bras d'un éditeur de services (lire ici Google et son service YouTube) pour financer le développement de son réseau, ou plutôt augmenter sa marge. Qu'il n'a pas intérêt à me vendre un service prioritaire, premium, géré ou je ne sais quel autre mot synonyme de priorité ou d'exclusivité pour avoir de la VOD ou de la télé de qualité. Qu'il ne favorise pas ses propres services. Qu'il ne m'impose pas sa boîboîte au look improbable "parce qu'elle fait partie de son réseau".

On notera au passage qu'OVH ne dispose pas de son propre réseau de collecte (les "derniers kilomètres de réseau" qui relient votre domicile au monde) sur tout le territoire français. Sauf erreur de ma part, la collecte de ma ligne ADSL est assurée par le réseau de SFR. La différence se fait bien ici sur le "coeur de réseau".

Vous aurez peut-être également noté que je critique paradoxalement la box de Vidéo Futur dont l'ergonomie, quoi que bien meilleure que celles des autres offres, est encore quelques années derrière celle de la box de Kartina fabriquée par Comigo. Je suis en même temps indulgent, car les pauvres se battent dans un contexte réglementaire extrêmement défavorable aux innovateurs, pour le plus grand bénéfice des rentiers des médias et de la culture. Les russes tombent peut-être dans l'excès inverse, mais le résultat est là : un service de qualité, innovant, alors qu'en France on pleure à l'assemblée nationale sur l'indisponibilité du service public de l'audiovisuel à l'étranger...

Pas de télé sur IP, non plus, dans la box de Vidéo Futur. Cela m'a un peu déçu au début, mais quand on se souvient des batailles livrées par Free au début du Triple play, ou quand on voit dans quelle situation est actuellement, je les comprends... ne peut par exemple pas rediffuser en ligne TF1 et M6, ni les chaînes du service public qui font pourtant l'objet pour d'autres acteurs d'une obligation de diffusion... On nage en plein délire.

Bref, merci la neutralité, grâce à laquelle j'échappe à l'ORTF 2.0 des offres "triple play"...

Rapport Lescure : de bonnes propositions pour le marché, des enjeux citoyens encore à traiter

Après des mois de travail, Pierre Lescure a rendu son rapport. Il succède dans cet exercice à Denis Olivennes (à l'époque PDG de la Fnac) et Patrick Zelnik, fondateur de Naïve.

À un vendeur de supports physiques et des appareils permettant de les lire et à un producteur succède donc l'ancien patron de Canal +. Cet énoncé est certes très réducteur - chacune de ces trois personnes est bien plus. Mais cette analyse grossière apporte cependant un éclairage intéressant à l'un des principaux apports de ce rapport : l'importance reconnue des distributeurs, essentiellement les éditeurs de service en ligne, et la proposition d'un train de mesures visant à permettre enfin l'émergence de plus de champions français.

Le rapport Lescure propose en effet notamment une mesure aussi emblématique que provocatrice pour les majors de la musique : la gestion collective obligatoire, si un code des usages de ce secteur n'était pas adopté et respecté par les producteurs :

«En outre, dans l’hypothèse où les producteurs phonographiques refuseraient la régulation négociée proposée plus haut (établissement d’un code des usages sur les rapports avec les plateformes et conclusion d’un accord collectif sur la rémunération des artistes), la mise en place d’une gestion collective obligatoire des droits voisins pourrait être envisagée. Il s’agirait de tirer les conséquences de la défaillance de la gestion individuelle qui ne permet pas une exploitation des œuvres dans des conditions satisfaisantes et qui crée des entraves au développement de l’offre, des distorsions concurrentielles et des déséquilibres dans le partage de la valeur.»

Toute personne s'intéressant de longue date à ce secteur ne peut que sourire, les producteurs n'ayant jamais ou presque respecté leurs engagements. L'hypothèse de non-respect est ici toute rhétorique. Il est très heureux de voir ceux qui bloquent le développement d'offres attractives depuis plus de 10 ans ramenés à une plus juste place. Cela me semble être un important symbole, insuffisamment remarqué.

Le rapport Lescure a d'autres vertus. Je tâche un peu plus bas d'énumérer celles qui me semblent les plus remarquables. Je ne lui reconnais cependant pas celle de chercher une paix entre les acteurs de l'Internet et ceux de la Culture. S'il prétend ne pas les opposer, c'est pour mieux regretter l'absence d'éditeurs français, à quelques exceptions près, et mieux désigner comme adversaires des sociétés américaines qui, comme toutes les multinationales du monde, pratiquent l'optimisation fiscale. Je n'apprécie certainement pas cet exercice, mais j'aimerais vraiment comprendre pourquoi on ne le condamne que pour le numérique, si ce n'est du fait du faible nombre d'acteurs français... Non, le rapport Lescure n'est pas un rapport de paix dans la société de l'information, ce malgré quelques avancées notables. Dès sa première page, il évoque ainsi

«La révolution numérique, multiple, universelle, réjouissante, débordante et aussi déstabilisante a, d’ores et déjà, changé le fonctionnement du monde et de nos vies. La révolution est là. Elle ne va faire que croître et embellir et c’est tant mieux.»

Il dénonce également

«Les contraintes liées aux mesures techniques de protection (« DRM » dans le langage courant), qui entravent certains usages, les restrictions territoriales, ou encore les limitations relatives aux supports ou aux moyens de paiement, sont également d’importantes sources de frustration.»

et appelle, page 17, à une régulation plus forte et plus large.

Dans la même section, il estime, mieux encore, que

«il est vain de vouloir éradiquer l’offre illégale et néfaste de stigmatiser ses usagers»

Dans le même esprit, le rapport Lescure appelle à un effort d'imagination et à ne pas recycler de vieilles recettes :

«Les instruments traditionnels mobilisés pour la régulation de la diffusion analogique (quotas de diffusion) ou de la distribution physique (soutien aux librairies, prix unique du livre) ne sauraient être transposés à l’identique dans le monde numérique»

Pour en finir avec les principaux points positifs, notons :

  • un appel insistant à mieux répartir la valeur, en garantissant la part de revenu des auteurs et des artistes-interprètes ;
  • une reconnaissance de l'auto-édition et de l'auto-production, notamment par des collectifs et des coopératives (page 20) :

«L’autoédition et l’autoproduction, rendues plus accessibles par les technologies numériques, permettent à un nombre croissant de créateurs de s’affranchir de la tutelle d’un intermédiaire et, ainsi, de conserver une part plus élevée des revenus de leurs ventes. Toutefois, sous réserve de quelques exceptions très médiatisées, les auteurs autoédités et les artistes autoproduits peinent souvent à se faire connaître et à émerger au milieu de l’hyper-offre numérique. Plus prometteuse est l’émergence de nouvelles formes d’organisation (coopératives d’édition numérique, collectifs d’artistes), qui garantissent aux créateurs un meilleur partage de la valeur que celui applicable dans les modèles traditionnels, tout en leur prodiguant un soutien artistique, technique ou commercial dont ils ne bénéficieraient pas en autoédition ou en autoproduction.»

  • l'appel à améliorer les exceptions éducation et handicap, page 37 ;
  • l'appel à mieux protéger le domaine public, page 38 :
    • en encadrant les partenariats public/privé,
    • en luttant contre les phénomènes de réappropriation,
    • en lui donnant une définition positive.
  • la volonté de conforter les licences libres (à la Creative Commons), notamment face à la gestion collective, page 39, en permettant de placer certaines oeuvres sous de telles licences tout en en confiant d'autres à des sociétés de gestion (comme la SACEM) ;
  • la prise en compte de l'importance des meta-données, essentielle à une bonne traçabilité des oeuvres et à une bonne répartition des droits (page 41).

Si ces avancées sont indéniables, elles n'éclipsent cependant pas les aspects négatifs de ce rapport. S'il met l'accent sur la répression de la contrefaçon commerciale et appelle presque à une légalisation en creux des pratiques à but non-lucratif, ses propositions en la matière sont particulièrement dangereuses. Pages 34-35, le rapport Lescure esquisse ni plus ni moins qu'une «SOPA à la française», un dispositif qui permettrait d'obtenir des intermédiaires techniques et financiers des mesures drastiques contre les acteurs soupçonnés de contrefaçon, sans les garanties que peut apporter l'intervention de l'autorité judiciaire.

Audacieuse sur la gestion collective obligatoire des droits voisins, la position de Pierre Lescure se fait bien plus dogmatique sur une éventuelle légalisation des échanges hors marché (lire la page 31). C'est ici quasiment un copier-coller des arguments des producteurs... Mais est-ce vraiment surprenant ? Pierre Lescure sait qu'il ne pourra pas faire passer toutes les mesures contenues dans son rapport. Il semble chercher à chaque instant jusqu'où il peut «secouer le cocotier», de manière suffisamment argumentée. Ne sous-estimons pas non plus l'importance de sa culture de distributeur. Les producteurs hurlent tout autant à l'inconstitutionnalité d'une légalisation des échanges hors marché qu'à la mise en place d'une gestion collective obligatoire, pour des motifs juridiques analogues. Il y a bien ici un choix, très politique, de ne pas prendre de front tous les acteurs en même temps, de ne pas ouvrir «le front du cinéma» en plus du «front de la musique».

Il reviendra à mon avis au politique - au gouvernement et, s'il ne fait pas son travail, au parlement - de se remettre au travail, d'élargir la perspective et de souligner que l'on ne peut pas raisonner qu'en termes économiques. Le choix de continuer à interdire les échanges non-commerciaux implique de lutter contre leur existence, et donc à une surveillance généralisée des échanges ayant des implications majeures pour notre société. Il revient à des élus mandatés par les Français de poser la question dans toute sa globalité et d'opérer les choix citoyens, et non des seuls acteurs d'une filière économique. Ils ont déjà commencé. Je n'interprète pas autrement les réactions de Patrick Bloche et de Christian Paul.

Le politique pourra également argumenter du respect des droits du public, mis en avant par le rapport page 15 dans la section «Proposer aux publics une offre abordable, ergonomique et respectueuse de leurs droits». J'affirme pour ma part qu'un internaute a le droit d'échanger des oeuvres sans but lucratif et que le distributeur qui ne lui apporte aucune valeur ajoutée par rapport au P2P ne mérite pas d'être rémunéré. En l'absence d'effet négatif clairement démontré sur les ventes, aucune compensation ne devrait être prélevée sur les internautes.

Le rapport Lescure tente également d'adapter le volet «recettes» de l'exception culturelle à l'ère numérique. Si la taxation des opérateurs de telecoms semble légitime, puisque ces derniers sont dorénavant les principaux distributeurs de «contenus», j'ai par contre un avis très négatif sur la nouvelle taxe (ou redevance : peu importe pour le consommateur-payeur) sur les «appareils connectés». Non pas par opposition de principe à une nouvelle taxe, mais parce qu'elle va à son tour frapper une fourniture de biens délocalisables. Hier, on achetait les CD en Belgique ou en Grande-Bretagne pour ne pas s'acquitter de la rémunération sur copie privée. Demain, on commandera dans ces mêmes pays ou directement en Chine son équipement, en réalisant une économie substantielle au passage. Quitte à demander une nouvelle contribution au consommateur, il faut le faire sur un bien ou un service non délocalisable. Je ne vois pas de meilleur candidat que l'abonnement à l'Internet.

Glissons sur les tentations «d'adaptation au cloud» en extrapolant les copies à distance à partir de la taille des supports physiques achetés, augmentant d'autant la rémunération sur copie privée existante. Elle part du postulat que le système de la RCP fonctionne, que son barême est indiscutable et qu'il ne faut qu'aménager sa gouvernance, tant pour ce qui est de la fixation des taux que de la répartition des 25% «de soutien à la création»... (pages 22 et 23)

La persistance de la croyance en ce genre de système dépassé, malgré l'ambition initialement affichée, est encore plus gênante dans certaines mesures envisagées de soutien aux éditeurs, qui relèvent plus de la logique d'un portail tel qu'AOL en 1998 que de l'Internet. Ainsi, le rapport Lescure veut favoriser les éditeurs vertueux, en imposant leur reprise par les distributeurs - j'attends avec impatience de voir les premières exigences de cette nature formulées à un Apple, un Google ou un Yahoo - ou pire encore une priorité de trafic. Malgré l'affirmation (page 3) de « l’absolue nécessité de la neutralité du Net », c'est bien de la mise à mort de cette dernière dont il est ici question... Bref, même si l'effort est indéniable, les réflexes de «contrôles des tuyaux» comme a pu le faire en d'autres temps le CSA avec la radio et la télévision restent présents, dans une moindre mesure, mais tout aussi anachroniques.

La proposition la plus curieuse, du moins sur le seul plan de la logique, concerne l'adaptation de la chronologie des médias. Le rapport Lescure propose en effet essentiellement d'avancer la fenêtre de disponibilité en vidéo à la demande par abonnement à 18 mois et d'expérimenter des avancées de la fenêtre de vidéo à la demande hors abonnement (page 17). Dans la même section, le rapport traite de la disponibilité des séries étrangères, souhaitant accélérer leurs sous-titrage et les rendre disponibles plus tôt. Alors qu'une série comme «Games of Thrones» est massivement téléchargée dès sa première diffusion, on ne peut que s'étonner de la faiblesse de ces mesures. Les internautes attendront sans aucun doute, parce que Pierre Lescure l'a proposé, 18 mois plutôt que 36 pour accéder par abonnement à des oeuvres qu'il peuvent pour la plupart trouver immédiatement en P2P (et parfois avec une qualité supérieure, comme le rapport le pointe lui-même)... ou pas. Si ces propositions défient la réalité, elles n'en sont pas moins le reflet de ce que les professionnels de la profession sont prêts à accepter... Bref, on est ici en plein hollandisme, en pleine recherche d'un consensus introuvable là où il faut assumer une rupture et oser la mise en place d'une chronologie des médias autorisant tous les types d'exploitation d'une oeuvre dès sa première communication au public, comme le propose Philippe Aigrain depuis plusieurs années...

Symbole de la politique culturelle numérique de Nicolas Sarkozy, les lois hadopi et la haute autorité qu'elles ont mise en place sont bien évidemment abordées par ce rapport. Les passages qui en traitent sont parmi les plus étonnants, reprenant sans sourciller le bilan de son action par l'autorité elle-même et les affirmations péremptoires non étayées de ses partisans. Ainsi, la Hadopi aurait un effet avéré, ne coûterait pas si cher (!) et ne devrait être aménagée qu'à la marge, en remplaçant la suspension de l'accès internet par une amende de 60 euros (ou plus en cas de récidive), en transférant la gestion de la riposte graduée au CSA... Pourtant, les pratiques illicites n'ont pas été enrayées en France, même moins que dans bien d'autres pays... Là encore, il semble que Pierre Lescure ait choisi de ne pas prendre de front les partisans de l'hadopi, qui font de cette dernière une quasi-religion, et de mettre le gouvernement et le Parlement face à leurs responsabilités.

En conclusion, on espérera que le gouvernement, puis le Parlement, sauront retenir du rapport Lescure ses aspects touchant à la régulation du marché. Tout comme le rapport Zelnik, il comporte plusieurs propositions intéressants en la matière. Et l'on tentera, sans trop d'espoir au regard de la première année de mandat de François Hollande, de convaincre qu'il est temps, plus que temps, d'avoir une vraie «politique de civilisation» qui reconnaisse tous les apports du numérique au-délà du seul secteur marchand et légalise les échanges à but non lucratif.

Neutralité du net : de multiples enjeux, une réponse multiple

La «neutralité du net» est en débat depuis de nombreuses années maintenant. Même ce modeste blog, dont c'est certes l'un des principaux thèmes, compte 14 billets sur ce thème, dont le plus ancien remonte à 2010.

On peut estimer qu'il a déjà été de nombreuses fois fait le tour de la question. C'est un des "Grands Dossiers" de l'ARCEP. Deux propositions de loi ont été déposées, dont l'une, celle de Christian Paul, à laquelle j'ai contribué, a été inscrite à l'ordre du jour par le groupe socialiste et discutée en séance publique en mars 2012. L'autre est l'oeuvre d'une autre parlementaire fortement impliquée sur ces question, Mme Laure de Laraudière.

On peut donc légitimement se demander à quoi sert de demander un n-ième rapport, qui plus est au Conseil National du Numérique, aux moyens restreints et dont le rôle et l'indépendance posent question, si ce n'est de gagner du temps et d'enterrer le sujet.

La réduction opérée par certains, dont notamment Benjamin Bayart, de la neutralité du net à la seule question de la liberté d'expression me fait cependant réagir. Je tente donc dans les quelques lignes qui suivent de redéfinir ce qu'est la neutralité du net, d'énumérer les principaux types d'atteintes, de lister les principaux enjeux et de proposer les réponses qui me semblent adaptées.

La neutralité du net, qu'est-ce que c'est ?

La neutralité du net est pour moi un principe de respect de chacun des acteurs du réseau par tous. Je parle bien d'acteur au sens large et ne limite donc pas ce principe aux seuls «Fournisseurs d'Accès Internet».

Juridiquement, nous avions proposé avec Christian Paul la définition suivante de ce principe à l'article 1 de sa PPL :

« Le principe de neutralité doit être respecté par toute action ou décision ayant un impact sur l’organisation, la mise à disposition, l’usage d’un réseau ouvert au public. Ce principe s’entend comme l’interdiction de discriminations liées aux contenus, aux émetteurs ou aux destinataires des échanges numériques de données. »

Les articles suivants de cette PPL précisaient notamment des modalités de protection de la neutralité du net concernant plus spécifiquement les FAI.

La neutralité du net, c'est donc la garantie de la liberté, de l'égalité et de l'ouverture sur le réseau, composant essentiel de la société de l'information.

D'autres «couches» importantes doivent être traitées pour garantir ces libertés sur cette dernière : matériel, logiciels, services... S'il est essentiel de les traiter également - un Internet ouvert ne nous sert à rien si tous les utilisateurs voient les logiciels qui permettent de l'utiliser contrôlés par un AppStore» - il me semble important de ne pas mélanger tous les sujets.

En français moins technique, j'aime bien définir la neutralité du net, notamment quand j'ai affaire à des gens s'intéressant de près ou de loin à la politique, comme un volet d'une «laïcité informationnelle», qui permet à chacun d'avoir les pratiques qu'il souhaite dans la sphère privée tant que cela n'impose rien aux autres dans la sphère publique. Comme la laïcité au sens traditionnel, la «laïcité informationnelle» est un principe souple, sujet à interprétation.

Quelles sont les atteintes ?

Ces définitions positives sont peut-être plus intelligibles une fois complétées, en creux, par une liste des types d'atteintes à la «neutralité du net». J'en vois trois grandes.

La plus brutale et la plus facile à constater : le blocage, pur et simple.

À peine plus subtil, le filtrage empêche d'atteindre certains services ou certains contenus.

Plus difficile à constater et donc à empêcher, la discrimination, par exemple en rendant volontairement l'accès à un service plus lent, me semble la menace la plus importante aujourd'hui, du moins comme atteinte à la neutralité du net par un acteur privé. Les deux premiers types d'atteintes sont aujourd'hui l'apanage de la puissance publique.

Tout blocage et tout filtrage ne me semblent pas illégitimes. La neutralité du net n'est, pas plus que les grands principes que l'on défend avec elle, un absolu. L'inefficacité technique de ce type de mesure devraient cependant conduire à ne pas y recourir.

Quels sont les enjeux ?

Ils sont pour moi de trois grands ordres. Démocratique, tout d'abord. L'atteinte à la liberté d'expression ou d'information est évidente lorsqu'un contenu est bloqué. Elle peut être légitime pour les contenus les plus odieux. L'atteinte est également plus réel dans le cas, plus insidieux, de la discrimination. Lorsqu'un texte, un son ou une vidéo est accessible 100 fois plus lentement qu'un autre, pour des raisons ne devant rien à la technique, nous sommes également confrontés à une démarché de réorganisation de l'espace de débat, de réflexion, de pensée.

Économique, ensuite. Le coût d'accès au net est un paramètre important, voire essentiel pour ses acteurs.

De développement, enfin. Que ce soit en terme de développement économique, d'innovation économique, dont notamment celles des «start-ups» et autres jeunes pousses, qui n'existent pour certaines que du fait du faible «ticket d'entrée» ; de développement des territoires, que les grands réseaux s'efforcent traditionnellement, au moins dans leurs objectifs, de ne pas discriminer ; de développement de nouveaux biens communs, enfin, dont l'exemple très souvent avancé est wikipedia.

Qu'est-ce que l'Internet ?

La question peut paraître saugrenue tant «Internet» fait aujourd'hui partie de notre quotidien. Il n'en reste pas moins que «Internet» n'est pas défini en droit. Certaines notions comme celle de «service de communication au public en ligne» existent. Le singulier couramment utilisé pour Internet pose lui-même problème. En pratique, il y a des réseaux et des réseaux de réseaux, dont ce que nous appellons communément «Internet» n'est qu'un exemple. Certains geeks préfèrent d'ailleurs parler «des Internets», ce qui a l'avantage de mieux refléter la pluralité et l'acentrage de ces systèmes.

Ce que nous appelons communément Internet me semble pouvoir être résumé à une capacité générale d'interconnexion. Au fait d'être "relié" à un gros nuage de réseaux.

Ces réseaux appartiennent, pour la plupart, à des acteurs privés. Ils forment ensemble un «bien commun informationnel», qui n'est pas public au sens traditionnel du terme, mais qui n'est pas non plus un bien privé clos, exclusif, au sens traditionnel.

Les observateurs les plus anciens noteront que j'évite délibérément de faire une distinction entre «Internet» et services prétendument «gérés». Tout comme Stéphane Bortzmeyer, j'estime qu'il y a là que des «service privilégiés», dont on ne peut accepter par défaut tous les écarts de neutralité à moins de vider toute protection de la neutralité du réseau de son sens.

Quelle est la légitimé de la puissance publique à réguler des biens privés ?

Elle est pour moi la même que pour quantités d'autres infrastructures. Un centre commercial, même s'il appartient presque toujours à une société privée, n'est pas une zone de non-droit. Il n'est pas la voie publique, mais les lois de la République s'y appliquent. De même pour une gare, un aéroport, etc. Le caractère d'infrastructure essentiel de «l'Internet» légitime à lui seul cette intervention.

Comment agir ?

Tout ceci étant dit, comment agir ? Je continue de penser que la PPL Paul est la meilleure base. Elle fait de la neutralité du net le principe et permet d'autoriser certaines exceptions dûment justifiées.

Je la compléterais par les éléments suivants.

Tout d'abord, une loi protégeant de manière générale la liberté d'expression, puisque certains, comme Benjamin Bayart, estiment que cela est nécessaire. Cette loi ne devrait, comme toute bonne loi, pas être techno-centrée ni restreinte au monde numérique.

Ensuite, en protégeant les conditions d'interconnexion. La PPL Paul avait déjà envoyé un signal, qu'avait bien perçu l'ARCEP, en demandant aux acteurs du réseau des informations sur les conditions d'interconnexion. Une loi devrait faire de la fourniture de ces informations au régulateur une obligation légale et de la fourniture d'une interconnexion «de bonne qualité» la règle.

Afin d'éviter d'imposer une obligation trop forte à tous les acteurs et surtout d'imposer des obligations inadéquates à tous les types de réseaux de communications électroniques ouverts au public (et qui ne sont pas tous Internet), je pense qu'il ne faudrait imposer des obligations en matières d'interconnexions qu'aux seuls opérateurs dominants.

Le régulateur sait identifier ces derniers. La «bonne qualité» est une notion évidemment relative. Une interco peut être de mauvaise qualité pour de bonnes raisons. Ne devrait être répréhensible que la dégradation volontaire de la qualité de l'interconnexion, pour un motif manifestement non technique.

On permet ici de protéger «l'Internet de M. tout le monde» et d'adresser des problèmes tels que le ralentissement de YouTube que subissent les abonnés de Free. On permet cependant en même temps aux nouveaux acteurs de se développer sans subir les mêmes obligations, ainsi que le déploiement d'autres réseaux interconnectés en «réseau de réseaux» distincts.

Enfin, il faut organiser le déploiement rapide de la fibre sur tout le territoire. Le THD fixe est la réponse au risque d'encombrement souvent avancé, jamais constaté, par les fournisseurs d'accès. Le gouvernement est en train de préciser son plan... Attendons qu'il soit précisé pour le critiquer...

À propos de l'avis du Conseil National du Numérique sur la "neutralité du net"

Ça y'est, le «Conseil National du Numérique» 2.0 a rendu son premier avis. Ce très court document (2 pages !) est accompagné d'un rapport lui aussi remarquablement court (15 pages en comptant la couverture...) si on laisse de côté les annexes.

J'ai regretté lors de la mise en place du «Conseil National du Numérique» 2.0 qu'on ait préféré mettre en place une version légèrement remaniée de l'instance mise en place par Nicolas Sarkozy plutôt qu'un «Forum des Droits sur l'Internet» 2.0. Le CNNum continue en effet aujourd'hui de souffrir d'être peuplé de membres nommés par le pouvoir. Si l'essentiel d'entre eux est de grande qualité, la proportion proche de l'actuelle majorité est effarante, sans parler de la dépendance de la Netscouade, la société de son président, envers la commande publique. Dans son discours d'intronisation, Benoît Thieulin indiquait avoir confiance dans la capacité du Conseil à «bousculer» la ministre et le gouvernement... La teneur de l'avis laisse penser que la première partie du discours, riche de remerciements pour tous les politiques ayant contribué à cette nomination, est bien plus fidèle à la réalité.

L'avis du CNNum sur la neutralité du net a en effet un premier défaut. Il est restreint à sa saisine, qui ne portait que sur la liberté d'expression. Peut-être est-ce une qualité. Cela l'aurait sans doute été si l'avis n'avait prétendu porter que sur ce seul sujet. Le sujet de la neutralité du net est cependant également, certains diront surtout, économique. Comme souvent, les deux aspects ne sont pas décorrélés et l'existence d'un écosystème sain est la condition de l'effectivité de liberté toutes théoriques.

Très court, l'avis du CNNum ne s’embarrasse pas de détails. Alors que le débat porte sur des sujets tels que la symétrie des échanges ou le traitement des services que certains appellent «gérés» pendant que d'autres ne les voient que comme des distinctions artificielles du reste de l'Internet, souvent indûment privilégiés, l'avis du CNNum reste à quelques kilomètres au-dessus de la surface du sujet.

Enfin, l'avis du CNNum ne prévoit qu'un principe mou, non-contraignant, une sorte d'objectif assorti d'un «observatoire de la qualité du net». Or, les réseaux continuent à évoluer bien plus vite que la loi, voire même que la vitesse de réaction du régulateur. Et l'ARCEP est pourtant un régulateur actif... Le danger de ne laisser subsister qu'un «Internet résiduel» est réel et sérieux. Le rapport explique ainsi clairement que la neutralité du net ne concerne que l'accès à des contenus légaux, laissant la porte ouverte aux revendications des lobbies de la culture et de la communication et à leur neutralité «dans le respect du droit d'auteur». Pire encore, le rapport est même en retrait sur la position de Neelie Kroes sur la neutralité du net. Si cette dernière souhaite que chacun puisse payer une option pour disposer d'un accès à Internet réellement neutre, le rapport estime uniquement «essentiel que le principe de neutralité garantisse un accès transparent à l’information afin que les usagers puissent choisir en connaissance de cause le réseau et les services qu’ils souhaitent utiliser». Comme le pointe très justement Numerama, le dernier exemple d'atteinte à la neutralité, à la dernière page du rapport, est très parlant : est bien visé ici un défaut d'information sur une atteinte à la neutralité.

Bref, un document qui répond bien à la commande passée par Fleur Pellerin lors du colloque de janvier... On se reportera plutôt à ses annexes pour des pistes de protection de la neutralité du net.

Pour une vraie corégulation du net

Ami lecteur, pose ton café avant de lire la suite de ce billet... Et réjouis-toi, car je vais tenter d'être plus court qu'habituellement (tout arrive).

Je voudrais dire tout le bien que je pense de la dernière proposition de corégulation du CSA. L'approche retenue est celle que je préconise dans divers cercles depuis de nombreuses années : un régulateur puissamment armée posant des principes en fonction desquels les acteurs s'auto-régulent et n'intervenant éventuellement avant l'autorité judiciaire que pour les problèmes les plus graves.

Les plus attentifs auront noté que c'est également ce que je préconise pour la neutralité du net, entre autres dossiers numériques. Que cela soit pour la régulation des contenus en ligne - disposer d'un étiquetage du type "plus de 18 ans" et avoir la possibilité de mettre en place un filtrage parental en fonction est une bonne chose - ou pour protéger un droit positif à la neutralité, nous avons besoin d'un régulateur compétent et bien armé. Ce même si le caractère presque uniformément mauvais des interventions législatives de ces dix dernières années rend légitimement méfiant.

Je regrette par contre que l'on ait à nouveau perdu du temps en repoussant la fusion CSA/ARCEP entre autres autorités que l'on pourrait agréger pour réguler de manière plus cohérente. Je regrette encore plus l'occasion manquée de transformer le CNNum en une vraie instance de corégulation, avec des adhérents, un conseil élu, agrémenté éventuellement de quelques personnalités qualifiées, etc. Il y a là un vrai beau chantier. Mais encore faut-il vouloir faire un peu mieux que du Sarkozy 2.0 saupoudré de social-libéralisme - et perdre une occasion de placer de distribuer quelques hochets aux copains/copines (parité oblige).

De retour de la table ronde sur la neutralité du net

« @lpenet @pcinpact Si j'ai bien compris, cette "table ronde" n'a servi strictement à rien, si ce n'est jouer la montre ? #netneut »

Cette question de @PierreCol sur twitter m'a incité à préparer une réponse un peu plus développée.

Contextualisons un peu. Pierre Col n'est pas n'importe qui. C'est un de ces vétérans du net français que l'on classe amicalement dans la catégorie des «dinos», de ceux qui connaissent et font le net depuis longtemps, bien plus longtemps que son adoption par le grand public. Pierre Col était d'ailleurs l'un des experts consultés par l'ARCEP lors de son grand colloque sur la neutralité du net du... 13 avril 2010. Si lui me pose cette question, cela vaut la peine que je prenne une heure de mon temps pour tenter de répondre posément.

Commençons par du positif. La ministre déléguée en charge du numérique (je raccourcis l'intitulé afin que vous ne décrochiez pas) décide de prendre à bras le corps le sujet de la neutralité du net. L'annonce par les membres de son cabinet est aguicheuse. On va «enfin» réunir tout le monde, «vraiment» parler et «enfin» passer à l'action. Belle promesse !

Là où le bât blesse, c'est que l'attitude de Fleur Pellerin ce mardi matin n'a pas été à la hauteur. Elle n'a, quelque part, eu que le tort de perpétuer les pratiques de ses prédécesseurs, de droite comme de gauche : organiser un machin où on invite tout le monde, venir à la fin pour conclure et recueillir les quelques applaudissements que l'on réserve toujours au Ministre, par politesse et aussi parce que la France reste le pays de Louis XIV où les réflexes de Cour et de culte du Chef sont prégnants. Mais les temps ont cependant malgré tout un peu changé. Une conférence twittée est un exercice très délicat pour un politique. On est bien plus facilement ironique que constructif en 140 caractères. Quand, en prime, la promesse initiale n'est pas tenue, cela ne peut que très très mal tourner.

Là où le bât blesse également, c'est que notre ministre déléguée s'est exprimée pendant la campagne présidentielle sur ce sujet, et sur d'autre sujets liés, comme l'export d'armes numériques inlassablement relancé par l'ami @bluetouff et ses collègues de Là où il blesse encore, c'est que le vernis communicationnel craque vite. Le ton du changement ne saurait suffire. Comme le dit très justement Guillaume Champeau, tout cela a un côté terriblement années 90 et ce n'est juste plus possible. Une communication plus sobre, l'affichage d'une ambition plus modeste aurait peut-être entraîné d'autres réactions.

Autre point positif : le contenu de cette demi-journée était très bon. La première partie, plus politique, rassemblait des intervenants de haut niveau, qui se sont tous efforcés d'apporter au débat sans tomber dans les guéguerres partisanes. La seconde partie doit beaucoup aux interventions du GESTE, de l'ASIC et surtout d'Octave Klaba. Benjamin Bayart était très bien, comme souvent, mais l'apport d'Octave en tant que DG d'un des premiers hébergeurs mondial m'a semblé décisif. On n'a jamais, à ma connaissance, aussi bien parlé de peering et de transit dans une réunion grand public que pendant cette seconde table ronde. Cette table ronde aura également été l'occasion d'un joli démontage de l'argumentation sur l'asymétrie des échanges. J'ai moi aussi écrit sur ce blog il y a déjà bien longtemps et plus récemment que l'important n'est pas dans les volumes échangés, mais dans la valeur échangée. Mais quel plaisir de l'entendre brillamment exposé, ainsi que la perversion de la dénonciation de cette asymétrie alors que l'accès internet grand public français a été conçu pour être asymétrique. Rappelons-le : ce n'était pas une contrainte technique, mais un choix, et Octave Klaba a jeté un joli pavé dans la mare en rappelant que l'ARCEP bloque le déploiement de technologies grands publics plus symétriques «pour ne pas perturber le marché». Cerise sur le gâteau : Pascal Rogard et les adeptes de la neutralité «dans le respect du droit d'auteur» n'étaient pas là. Ouf.

Il est d'autant plus malheureux que la ministre, qui convoque cette réunion en promettant d'écouter tout le monde, ne se libère que vers 11h, pour interrompre la seconde table ronde par son intervention, en commençant par expliquer qu'elle était retenue ailleurs par des choses importantes et s'excusait de devoir s'en aller avant la fin du fait d'autres obligations. Quelle incroyable maladresse, dont Fleur Pellerin est hélas coutumière, et que son cabinet ne l'aide manifestement pas à éviter. Au vu du désastre communicationnel, Fleur Pellerin a «miraculeusement» réussi à se libérer pour rester plus longtemps que prévu. Tiens, c'était donc possible...

Seconde maladresse, continuer son intervention par un «j'ai bien écouté les interventions» (erf) «il me semble qu'il y a en fait un consensus» (re-erf). La ligne de partage entre les telcos, représentés par la FFT, et les autres acteurs était pourtant manifeste. Non, il n'y a pas consensus. Ceux qui portent le plus visiblement atteinte à la neutralité du réseau ne veulent pas d'un encadrement de leurs pratiques. C'est clair, net. C'est un conflit avéré depuis plusieurs années. Il revient maintenant au politique de prendre ses responsabilités et de trancher. À nouveau, madame la Ministre n'est ici qu'une «vraie hollandaise» (pas une batave, une compagne de route de notre président) en prétendant ne voir qu'accord et consensus là où il faudrait avoir le courage de trancher et d'agir.

Troisième maladresse, annoncer demander au Conseil National du Numérique en cours de nomination son avis sur la pertinence d'une législation en la matière. Lorsque les parlementaires de tous bords présents, qui bossent ce dossier précis depuis au moins trois ans, et la quasi-totalité des acteurs sauf ceux qui sont le plus pointés du doigt estiment urgent de le faire, il est assez hallucinant de prétendre reprendre le dossier à zéro. Je me demande d'ailleurs s'il faut parler de maladresse ou d'arrogance propre à certains grands corps... Il est encore plus maladroit de prétendre demander un avis à un conseil dont les membres sont nommés par le gouvernement en toute opacité, et où on ne retrouve pour l'instant que des personnalités «d'une certaine couleur». S'ils sont pour la plupart brillants et si je tiens certains d'entre eux en très haute estime, ce n'est pas nous tenir, nous, les citoyens, en très haute estime que de tenter de nous faire croire que des personnes aussi proches du pouvoir et ainsi nommées vont se prononcer en toute indépendance. Je ne peux que regretter à nouveau au passage que le gouvernement n'ait pas préféré opter pour un «Forum des Droits sur l'Internet» 2.0 revu et amélioré, contrôlé par ses adhérents, à un relooking express du machin sarkoziste qui prétend lui succéder.

Quatrième maladresse : aucun représentant des internautes n'était à la seconde table ronde. On pourra arguer que Benjamin Bayart sait porter leur parole. Il n'était cependant là qu'à titre de FAI associatif. Pourquoi diable l'UFC que choisir n'était-elle pas présente ? Ou la CLCV, Reporters Sans Frontières, etc.

Cinquième maladresse : un long laïus dissociant laborieusement libertés fondamentales et enjeux économiques, combinant annonce de la saisine de ses collègues de l'intérieur et de la justice sur le volet «liberté d'expression» et reprenant bien des arguments de partisans d'atteintes à la neutralité du réseau «pour faire participer les éditeurs de services à la construction du réseau». Rappelons rapidement que les éditeurs de service construisent déjà leur part et que le métier des FAI (et c'est un métier bien rentable) est de construire et raccorder les derniers kilomètres. L'essentiel est ailleurs. J'ai eu la nette impression que l'on nous donnait à ronger un os de «libertés théoriques» qui serait rendues inopérantes par les atteintes à la neutralité esquissées au nom de l'économie. Peut-être faut-il voir ici la patte de son directeur de cabinet Sébastien Soriano. Sébastien, passé par l'ARCEP et l'Autorité de la Concurrence avant de devenir directeur de cabinet de Fleur Pellerin m'a laissé depuis longtemps l'impression de croire en la perfection du marché et en la puissance de sa main invisible. Ne lisez pas ici une attaque, Sébastien est un homme de qualité, mais son approche est à mon goût bien trop techno-économisante.

Sixième maladresse : alors que Fleur Pellerin évoque la «polémique twitter» dans son discours, vaguement apparentée au thème de la neutralité du net, elle esquive une question sur le DPI en arguant que la technologie est neutre, mais que seuls certains de ses usages sont répréhensibles. Dans l'absolu, ce discours est juste. Dans un contexte de vente d'armes numériques à la Libye et à d'autres pays ne brillant pas particulièrement par leur démocratie, cela évoque malheureusement le discours de Nikita Kroutchev sur la subjectivité de l'emploi des armes et le caractère «défensif» des missiles nucléaires déployés par l'Union Soviétique à Cuba. Non, on ne peut pas plus se laver les mains de l'export d'armes numériques à une dictature que de la vente de chars Leclerc ou d'avions Rafale...

Bref, du positif, indéniablement, de la part des intervenants, à défaut de nouveauté, si ce n'est la clarté et la force du message sur l'asymétrie et le peering. Mais une manière de gouverner et de communiquer datée, qui ne dénote aucun changement de pratique, et qui n'annonce aucune amélioration.

Soyons optimistes : le meilleure reste possible. Et, après une nouvelle déception, nous ne faisons qu'augmenter nos chances d'être agréablement surpris...

À propos de la neutralité du net, version 2013

La «neutralité du net» est revenue la semaine dernière sur le devant de la scène. Loin d'être confidentiel, ce sujet a déjà fait l'objet de nombreux débats et tables rondes ces quatre dernières années, sans même évoquer l'attention portée par les grands penseurs de notre époque, comme Lawrence Lessig, depuis bien plus de dix ans. Étudiée par l'autorité de régulation des communications électroniques et postales (l'ARCEP), la «neutralité» a également fait l'objet de rapports parlementaires, en France et à l'étranger, et de deux propositions de loi, dont l'une, celle de Christian Paul, a été inscrite à l'ordre du jour par le groupe socialiste et discutée en séance publique en mars dernier.

Le sujet est donc incontestablement déjà largement défriché. On peut donc se demander en quoi une n-ième table ronde est utile, fut-elle organisée par la Ministre en charge de l'Économie Numérique... Une régulation sur ce sujet étant, à mon avis, souhaitable, il convient, je pense, de se réjouir de cette irruption dans le débat grand public et de l'intérêt du gouvernement. On redécouvre certes l'eau chaude au passage, mais c'est le cas pour presque tous les grands combats politiques : cela prend du temps, et il faut réexpliquer, encore et toujours, pendant de longues années...

Plusieurs personnes étant revenues vers moi à ce sujet, j'ai trouvé opportun de produire ce billet, en espérant qu'il vous sera utile.

Plusieurs questions me semblent se poser :

  • Qu'est-ce que la «neutralité du net» ?
  • Quels sont les enjeux ?
  • Quelles sont les intérêts en présence ?
  • Que peut-il se passer ?
  • Que faudrait-il faire ?

Qu'est-ce que la neutralité du net ?

La neutralité du net est, au sens strict, un principe de non-discrimination des communications électroniques pour des raisons autres qu'un réel impératif technique. La PPL examinée à l'hiver 2011 le définissait comme «l’interdiction de discriminations liées aux contenus, aux émetteurs ou aux destinataires des échanges numériques de données.»

Ce principe interdit, par exemple, à un FAI de favoriser les communications vers YouTube plutôt que DailyMotion. Il interdit également de favoriser artificiellement les échanges dans un protocole plutôt qu'un autre. Dans cet esprit, toutes les solutions de téléphonie sur internet doivent être traitées équitablement. Celle d'un fournisseur donné, par exemple Microsoft, ne doit pas être indûment favorisée.

Il est donc question ici de blocage, de filtrage et de bridage de communications, parfois suite à l'analyse en profondeur (DPI, «Deep Packet Inspection») de trafic. Le blocage est l'interruption complète de tout ou partie d'une communication. Les protocololes d'échange «de pair à pair» (P2P) sont ainsi encore souvent bloqués par les offres d'«accès internet mobile», ce qui est une atteinte évidente à la neutralité du net. Filtrer certains contenus peut également être une atteinte à la neutralité, lorsque ce filtrage est imposé par le réseau et non sous le contrôle des deux interlocuteurs de la communication électronique. Le cas du récent filtrage par Free des publicités est à cet égard ambiguë. S'il est bien appliqué par défaut, il reste cependant optionnel et peut être désactivé. S'il pose certains problèmes, la possibilité de le désactiver laisse à l'abonné la possibilité d'avoir un accès internet «neutre». Enfin, le bridage d'une communication peut constituer une atteinte à la neutralité du net. Un intermédiaire technique peut choisir de limiter le volume ou la vitesse des communications entre certains interlocuteurs. La vitesse de communication à YouTube, par exemple, peut être artificiellement limitée.

Quels sont les enjeux ?

Les enjeux les plus apparents sont économiques. Les réseaux de communications électroniques et tous ceux qui les utilisent ne fonctionnent, tout d'abord, hélas pas avec de l'amour et de l'eau fraîche. La question du financement de leur développement est posée de manière récurrente. Leur écosystème est complexe et comprend une grande diversités d'acteurs, de l'éditeur de services tel que Google au petit fournisseur d'accès local en passant par les grands opérateurs de transit, les sociétés proposant des services permettant de «rapprocher» les contenus de leurs «clients» («Content Delivery Network»).

L'enjeu est également de liberté d'expression et, au-delà, d'architecture de l'espace public. Les réseaux électroniques ne sont plus depuis longtemps le terrain de jeu des traders, de sociétés globalisées organisant leur production et leur logistiques sur de grandes distances et d'informaticiens. Elles font partie intégrante de la réalité des moins de 40 ans, de la réalité de «la petite poucette» de Michel Serres. Comme l'a très bien énoncé Lawrence Lessig, «Code is law» et l'architecture technologique conditionne autant nos échanges que l'urbanisme de nos villes contraint nos déplacements. Les cas les plus extrêmes d'atteinte à la neutralité du net relèvent de la censure, comme c'est le cas en Syrie ou en Chine. De manière plus subtile, n'autoriser que certains comportements, rendant les interlocuteurs plus passifs ou compliquant l'accès à certains services façonne notre environnement. Que l'accès à wikipedia soit par exemple rendu plus lent que celui à une autre encyclopédie, dont le contenu serait validé par l'Université en accord avec la puissance publique, ou à une copie de son contenu farci de publicité serait une atteinte caractérisée à la neutralité du net. Le fait que le moteur de recherche d'Orange renvoie sur une telle copie plutot que sur wikipedia est un exemple concret d'une telle atteinte.

Quels sont les intérêts en présence ?

Il y a, dans le désordre, tout d'abord les éditeurs de service. Google, DailyMotion, Amazon, Apple, etc. proposent des services en ligne à l'aide de lourdes infrastructures, comprenant à la fois de très nombreux ordinateurs et de bonnes capacités de connexion. On l'oublie trop souvent dans des discussions de comptoir sur l'internet, mais il y a deux côtés à un tuyau, et les éditeurs de service payent ou opèrent eux-même des réseaux de communication leur permettant d'atteindre leurs usagers.

Il y a, ensuite, les fournisseurs d'accès à internet. Ils sont le dernier maillon de la chaîne des intermédiaires techniques reliant l'internaute chez lui dans son salon au service auquel il souhaite se connecter. Ou qui permettent aux plus pointus de leurs abonnés de proposer leurs propres services. Leur métier est de construire des réseaux, notamment les «derniers kilomètres» reliant monsieur tout le monde à Internet, et d'en monnayer l'accès. Jusqu'à aujourd'hui, les FAI ont tiré l'essentiel de leurs revenus de la vente d'abonnements. Leur rentabilité à deux chiffres incite à minorer leurs plaintes sur la croissance du trafic. Entend-on Vinci se plaindre de l'accroissement du trafic routier ? Certe, les FAI français subissent une pression particulière du fait de l'omniprésence du tout-illimité dans les offres aux particuliers. Ils ont su cependant trouver des modalités d'augmentation de leur tarif. Free, par exemple, a su augmenter le coût de son abonnement à l'Internet sous prétexte d'une nouvelle «box» supposée apporter une meilleure expérience.

Entre ces deux extrêmités existent bien d'autres intermédiaires techniques. Les transitaires, sortes de super-FAI, opèrent des réseaux à échelle mondiale. Leurs modalités tarifaires sont presque toujours fondées sur les volumes réellement échangés. Les «Content Delivery Network», comme Akamaï, ont pour métier de «rapprocher» les contenus de ceux qui les consultent, à l'aide d'une infrastructure technique complexe. Sur le net, les communications ne sont en effet pas instantanées. Afin de raccourir la vitesse d'accès et de chargement à «une page», il est souhaitable que le serveur proposant le contenu désiré par un utlisateur soit «le plus proche possible» de ce dernier.

En plus de ces acteurs presque tous apparus avec l'Internet - ils n'existaient pas ou si peu il y a 15 ans, on comptera également trois grands groupes d'intérêts : les ayants droits, d'oeuvres de tous types (audiovisuel, cinéma, musique, presse, etc.) ; les États et leur tendance à vouloir contrôler les échanges, notamment à des fins de sécurité publique ; les citoyens-consommateurs, dont les intérêts très fragmentés divergent souvent de ceux des États.

Que peut-il se passer ?

Sur l'internet filaire (par ADSL, câble, ou fibre), la neutralité est peu ou prou la règle aujourd'hui. Il existe certes quelques atteintes manifestes, comme le filtrage du port 25 (de courrier électronique) chez certains prestataires ou la limitation du trafic descendant (vers l'abonné) chez certains FAI, mais monsieur-tout-le-monde peut globalement faire ce qu'il veut et le geek peut trouver chaussure à son pied.

La situation sur le mobile est différente. Sous prétexte de rareté, les opérateurs multiplient les atteintes à la neutralité, empêchant l'utilisation de téléphonie par internet sous de fallacieux prétextes techniques (en fait, pour imposer l'utilisation de leurs propres services vocaux), interdisant le P2P, etc. On notera que cette prétendue rareté disparaît lorsqu'un opérateur offre un accès illimité à ses propres services. Les ondes électromagnétiques ont dû faire une école de commerce...

Ce réseau globalement ouvert connaît une triple pression :

  • des FAI, qui cherchent à accroître leurs marges en trouvant d'autres sources de revenus pour financer leurs investissements ;
  • des ayants droits qui estiment que la faculté donnée à chacun d'accéder et de proposer librement des contenus est fondamentalement mauvaise et doit être entravée ;
  • de la puissance publique qui a du mal à s’accommoder de la difficulté à encadrer des échanges acentrés.

Aux États-Unis, la liberté des acteurs économiques semble toujours être la première priorité. Et celle de ces acteurs économiques de proposer de «nouveaux services» essentielle. Ce pays comptent cependant des acteurs puissants dans tous les groupes d'intérêts énumérés et le débat est donc globalement plus équilibré.

La France ne compte, elle, pas ou peu de géants du numérique. Elle ne compte, par nécessité, que des opérateurs de télécommunication et quelques ayants droits. Dans un contexte «d'engagement total» pour l'emploi et alors que le gouvernement Ayrault peine à démontrer une meilleure expertise numérique que ses prédecesseurs, on peut donc craindre le traitement de ce dossier de ce civilisation sous le seul angle économique. Pire encore, on peut craindre une vision réductrice de défense à court terme de nos «champions nationaux» (lire, les FAI et quelques ayants droits) contre «l'Étranger». La qualification par Fleur Pellerin de la neutralité du net comme un « concept américain qui a tendance à favoriser les intérêts économiques de Google, Apple et consorts » n'incite guère à l'optimisme. De plus, les services du ministère de l'industrie n'ont guère brillé par leur capacité à soutenir le développement de l'économie numérique depuis 30 ans (les faits sont cruels...) et la culture colbertiste du contrôle par l'État et des champions nationaux reste la règle.

On peut donc craindre à court terme, d'une part, que la puissance publique pèse de tout son poids pour forcer les éditeurs de service à contribuer plus directement au financement des réseaux des fournisseurs d'accès internet. Les éditeurs étrangers pourraient être tentés à leur tour de limiter, voire de bloquer l'accès à leurs services en France. Le créateur d'un nouveau service est, lui, un peu plus incité à aller créer ailleurs. Il est intéressant de noter au passage que si Free s'attaque à la régie publicitaire de Google avec son filtrage optionnel intégré dans sa box, il ne se risque cependant pas à entraver l'accès au moteur de recherche de Google, élément clé de l'expérience en ligne de la plupart de ses abonnés.

On peut craindre, d'autre part, une tentative de taxation des flux entrant et sortant du territoire. Une telle opération ne conduirait qu'à délocaliser encore plus d'interconnexions à l'étranger. On peut craindre, enfin, que l'État ne souhaite introduire une taxation différenciée en fonction de la nature des échanges. Sous prétexte de financement des réseaux, une tarification en fonction de la nature des contenus échangés pourrait être introduite, différenciant par exemple la vidéo du texte, ouvrant au passage la voie à des taxes spécifiques pour la presse et au blocage de l'échange des «contenus protégés» revendiqués de longue date par les ayants droits.

Que faudrait-il faire ?

Il nous faut, tout d'abord, impérativement ne pas laisser le traitement de cette question dans les mains des économistes. Le net n'est ni un centre commercial, ni une place de marché. Il est aujourd'hui pour des millions d'entre nous un lieu de vie et doit être appréhendé comme tel. À ce titre, laisser le traitement de cette question au seul ministère de l'économie numérique et à Bercy serait très dangereux. Vu l'ancienneté du débat et vu la qualité du travail déjà effectué, une initiative parlementaire serait ici souhaitable.

Les enjeux de société dépassent, d'autre part, de loin la question de la seule neutralité du net. Il nous faut donc traiter cette dernière sans pour autant en faire un absolu, une norme indépassable qui s'imposerait à toutes les autres. On remarquera au passage certains clivages entre partisans de la neutralité du net. Si certains sont des défenseurs du «free speech» à l'américaine, autorisant toutes les expressions, d'autres se situent plutôt dans la tradition française qui choisit collectivement d'interdire les expressions les plus condamnables (incitation à la haine raciale, etc.).

Il nous faut, enfin, protéger de manière très générale ce principe de neutralité du net, en en faisant la première pierre d'un corpus de droits positifs de protection de l'ouverture de la société de l'information. Ce principe devrait donc être ouvert, et concerner tous les intermédiaires techniques et non les seuls FAI. Son respect devrait être contrôlé par une autorité de régulation renforcée, ayant notamment la faculté d'autoriser «a priori» les services dérogeant à la neutralité, les fameux «services gérés». Il sera ensuite temps, dans d'autres textes, de traiter de l'ouvertures d'autres composants essentiels de la société de l'information, par la loi, mais aussi et surtout par le développement d'offres respectueuses de nos libertés. Beaucoup de travail reste à accomplir. À quoi nous sert, par exemple, un internet neutre si tout le monde s'y connecte à l'aide d'un iMachin dont le choix d'applications est étroitement contrôlé par une firme américaine puritaine ?

De manière évidente, il nous faut, par ailleurs, porter ce débat au niveau européen et au-delà... L'Union Européenne n'est toujours pas, aujourd'hui, le «lieu» de ce type de débat démocratique. On peut cependant probablement espérer mieux du Parlement européen que d'un parlement national dont les godillots se comptent sur tous les bancs.

Ball trap

Petit billet rassemblant la série de twits que m'ont inspiré certains volatiles urbains, surnommés par de vieux amis "les rats volants".

L'actualité à laquelle je réagis est, pour les archives :!/0_0 et .

À propos de la proposition de loi de Laure de Laraudière sur la neutralité du net

Laure de Laraudière, vient de déposer une proposition de projet de loi concernant la neutralité du net.

La députée d'Eure-et-Loir n'est pas une novice de ce sujet. Elle a, pour mémoire, déjà déposé :

Mme de Laraudière avait également déposé un amendement au projet de loi autorisant la transposition par ordonnance du dernier «paquet telecom».

Cette PPL se situe quelque par entre ces deux rapports. Le premier rapport estimait en effet, pour aller très vite, que l'on préserverait la neutralité par la stimulation de la concurrence et l'accroissement de la concurrence et tentait de donner au régulateur les moyens de protéger un «internet de qualité suffisante». Le second remarquait que des atteintes à la neutralité se produisent déjà, que la concurrence ne suffit pas et pointait les législations préventives mise en place par certains de nos partenaires européens, comme les Pays-Bas.

Ce nouveau texte reprend cette notion d'Internet de qualité suffisante, en donnant au régulateur la mission de la définir et de la contrôler. Cette notion pose toujours les mêmes problèmes. Elle est indéfinie et l'on peut être craintif quant à sa définition... Ce d'autant plus que la définition de la neutralité du net proposée par cette PPL est doublement problématique :

  • Elle n'est définie qu'en terme d'envoi et de réception de contenu et de seule *utilisation* de services. Or, un des apports essentiels de l'Internet est de rebattre les rôles et de faire de chaque personne qui y est connecté un éditeur de service en puissance.
  • Réductrice, elle ne vise que les seuls FAI. Or, la neutralité du net est plus large. Elle vise, de manière générale, à ce que chacun des intermédiaires présents sur le net n'abuse pas de sa position (comme l'explique très bien Stéphane Bortzmeyer).

Se pose en effet toujours en creux la question des «services gérés», habilement éludée par Laure de Laraudière. S'il est important de dénoncer cette terminologie trompeuse, qui tend à faire croire que l'Internet ne serait pas déjà géré, il n'en reste pas moins que la tentation est forte chez les opérateurs pour exclure bon nombre de nouveaux usages de «l'Internet» et d'en faire des «services gérés», notamment pour ce qui concerne la vidéo. S'il est bien parfois nécessaire de favoriser techniquement certaines applications, comme cela a été historiquement le cas pour la télévision sur ADSL, ces cas devraient être autorisés a priori par le régulateur et dûment encadrés pour que l'accès à ces services spéciaux soit raisonnable et non discriminatoire, tant pour leurs éditeurs que pour leurs utilisateurs.

La PPL déposée par Christian Paul évitait cet écueil en définissant ainsi la neutralité du net :

Le principe de neutralité doit être respecté par toute action ou décision ayant un impact sur l’organisation, la mise à disposition, l’usage d’un réseau ouvert au public. Ce principe s’entend comme l’interdiction de discriminations liées aux contenus, aux émetteurs ou aux destinataires des échanges numériques de données.

Point besoin de définir une qualité suffisante ou d'un quelconque comité théodule. La neutralité doit être la règle pour tous les réseaux ouverts au public, point barre.

Voyant bien que la transparence et la concurrence ne suffisent pas, cette PPL donne cependant une capacité au régulateur d'intervenir s'il n'existe plus d'offre d'accès à un Internet neutre. L'efficacité d'un tel dispositif mérite d'être questionnée. Comme les spécialistes du secteur le savent bien «Code is Law» et si le réseau ne permet techniquement plus certains pratiques, elles disparaîtront. Rétablir leur possibilité des mois plus tard ne changera rien.

La majeure partie de cette PPL est, curieusement, consacrée à la mise en place d'une procédure unifiée de blocage qui aurait la vertu faire de systématiquement faire intervenir "le juge". Si cela est toujours meilleur qu'un blocage administratif, cela revient tout de même au passage à légitimer cette manière de faire... Or, nous avons à de multiples reprises dénoncé l'inefficacité du blocage. Le retrait à la source et la rupture de leurs circuits financiers sont aujourd'hui les deux seules manières efficaces de lutter contre les fournisseurs de contenus et de services illicites.

On pourra regretter, au passage, que ce texte n'aborde pas la question de l'interconnexion (peering ou transit), ce alors que l'ARCEP tente d'obtenir des FAI les informations qui lui permettraient d'y voir un peu plus clair.

On pourra également regretter que la députée d'Eure-et-Loir ne dépose ce texte qu'une fois passée dans l'opposition... Enfin, on se demandera si le groupe UMP à l'Assemblée nationale trouvera utile d'inscrire cette PPL dans une de ses «niches».

Neutralité, services gérés et... Fleur Pellerin

La neutralité du net est à nouveau en discussion aujourd'hui, notamment du fait de déclarations de la Ministre Déléguée en charge du dossier, Fleur Pellerin. Tant mieux.

Après une de ces déclarations calamiteuses dont elle est, hélas, coutumière, que Fabrice Epelboin a bien analysée dans ce billet, notre ministre a tenté de corriger le tir au «Club Parlementaire du Numérique» (machin dont l'objet est de faire se rencontrer des Parlementaires avec des lobbyistes du numérique dans un cadre convivial).

On pourra retrouver une sélection de gazouillis à propos de cette réunion avec le hash code #cpn.

En résumé :

  • ni blocage, ni filtrage "de l'expression et de l'innovation" (twit);
  • Mme la Ministre veut que les acteurs du contenu payent les FAI pour l'usage de leurs réseaux. Elle veut également des services gérés, encadrés ( lire ce twit et ce twit ).

Les trois twits mis ici en avant sont :

  • pour le premier, écrit par Romain Pigenel, ancien de l'équipe de campagne de François Hollande, pas précisément connu pour son opposition frontale

au gouvernement actuel ;

  • pour le second, écrit par Benoît Tabaka, ancien secrétaire général du CNNum, aujourd'hui à Google ;
  • pour le troisième, plutôt positif , écrit par Samuel Authueil, collaborateur d'un député de l'opposition.

Commençons par le positif. Afficher un rejet du blocage et du filtrage est clairement une avancée. Malheureusement tempérée (les mots ont un sens) par la réduction au champ de «l'expression et de l'innovation».

Pourquoi cette réduction est-elle importante ? Différents «droits» sont à prendre en compte lors de la prise d'une décision de blocage ou de filtrage et, au-delà, du façonnement du cadre législatif.

Prenons-en deux, pour illustrer : la liberté d'expression et le droit d'auteur. De longue date, les partisans d'une coupure de l'accès internet au nom du droit d'auteur clament être également des protecteurs de la liberté d'expression. On peut être en désaccord avec leur affirmation (je le suis), mais trancher cette situation conflictuelle est la responsabilité du politique et, en dernier recours, du juge. Dit autrement, et plus directement, cette opposition au blocage et du filtrage exclut soigneusement les décisions qui pourraient être prise eu nom du droit d'auteur.

La réduction au blocage et au filtrage est, en elle-même, également problématique. Le blocage ou le filtrage sont les pratiques les plus radicales, pour ne pas dire les plus caricaturales. Le loup est plutôt à chercher dans les pratiques de priorisation (faire en sorte, notamment à l'aide de règles de gestion de trafic, qu'une communication soit plus rapide, plus prioritaire qu'une autre). Prenons ici encore une image simple : un accès théorique à wikileaks ne nous est que de peu d'interêt s'il est à 100 octets par seconde.

Embrayons sur la seconde partie des propos de Mme la Ministre, sur le paiement des FAI pour l'usage de leurs réseaux. Elle relève à la fois d'une méconnaissance du dossier et d'une écoute complaisante du lobbying des opérateurs.

En tentant de ne pas nous livrer à des explications excessivement complexes, rappelons deux points clés :

1) Les éditeurs de service en ligne payent déjà leur bande passante et leurs infrastructures.

Le paiement pour la circulation de données de l'éditeur vers le client a lieu aux deux extrêmités du «tuyau». Mieux encore, la plupart de ces éditeurs investissent dans des systèmes permettant de rapprocher leur public (éventuellement co-créateur/éditeur, mais c'est un autre débat) de leurs service. On parle ici de caches, ou encore de «CDN» (Content Delivery Network). Les plus gros de ces éditeurs de service en ligne (ESL), comme Google, déploient de gigantesques infrastructures dédiées à leurs services sur toute la planète.

Disons le très simplement : les éditeurs de service payent leur part. Il est d'ailleurs intéressant de noter que le GESTE a longtemps milité pour un «tarif spécial» de la bande passante pour les éditeurs de service culturel.

Notons au passage que les opérateurs ont leurs propres «CDN» internes. C'est normal, c'est leur métier. Qu'ils aient envie que les éditeurs recourent à leurs services est logique. Qu'ils aient la capacité de le leur imposer est une autre affaire.

2) Les FAI sont payés par leurs utilisateurs pour leur fournir un accès de qualité au réseau.

La symétrie du volume des échanges (je dis bien du volume, pas des débits) n'a aucune espèce d'intérêt pour leurs clients. Bon nombre d'entre eux payent, entre autres, pour avoir accès à un réseau où YouTube et DailyMotion sont présents.

En demandant que ceux qui font une part essentielle de la valeur de leurs offres payent pour accéder à leurs clients dans de bonnes conditions, les FAI déploient ici une stratégie qui n'est pas sans rappeler celle de la grande distribution avec ses fournisseurs.

Il leur reste la possibilité d'augmenter le prix de leurs offres si la rentabilité n'est plus au rendez-vous. La lecture des bilans des principaux opérateurs rassure cependant sur leur survie à moyen terme...

Si les FAI plaident bien aujourd'hui pour que les ESL leur apportent un paiement complémentaire, il n'est pas pour autant obligatoire de reprendre aussi directement leur argumentation, ce même si la plupart des ESL sont étrangers et échappent largement à l'impôt en France.

Il est encore moins obligatoire de parler immédiatement de «service géré». Stéphane Bortzmerer, qu'on ne présente plus, a commis l'an dernier un billet très pédagogue sur cette terminologie.

Il y explique avec talent que :

  • l'internet est déjà géré, merci pour lui ;
  • la neutralité de l'Internet, c'est d'abord l'idée que l'intermédiaire (souvent le FAI) ne doit pas abuser de son rôle ;
  • service géré signifie en fait dans le débat sur la neutralité «service favorisé car rapportant plus».

Accepter que la diffusion de «contenus» (on parle ici le plus souvent de vidéo) soit généralement faite par des services gérés c'est :

  • renoncer à ce que le progrès technique (dont notamment le déploiement de la fibre) apporte une solution logique à cette évolution des usages - ce qu'il a toujours fait ;
  • donner aux opérateurs un gros bâton dont ils ne manqueront pas de se servir pour «taxer» indûment les ESL (comme les hypermarchés sont accusés de le faire avec leurs fournisseurs).

Le débat sur la place des «services gérés» intervient alors que l'attention du monde de la culture est focalisée sur l'arrivée de la télévision connectée. Les intérêts des FAI français et des lobbies français du monde de la Culture, effrayés par l'idée que la Google TV, l'Apple TV ou plus vraisemblablement la «Nouvelle Machine Encore À Inventer TV» deviennent la norme, sont pour l'occasion convergents. Alors que la chronologie des médias entrave avec une efficacité malheureusement redoutable le développement d'offres françaises crédibles, il ne faut pas être grand clerc pour comprendre que des connexions THD permettront à la Mamie du Cantal d'accéder à des services francophones extra-territoriaux de qualité. Là encore, pour autant, la solution n'est pas dans un protectionnisme rétrograde, mais plutôt dans l'accompagnement à la mutation.

Pour autant, et même s'ils sont souvent le masque d'appétits commerciaux, des services gérés sont parfois techniquement nécessaires. C'est historiquement le cas de la vidéo, avec la télévision sur ADSL. Même elles tendent à s'assainir, l'étude des pratiques des opérateurs de ces plateformes propriétaires est édifiante, surtout pendant les périodes où tel ou tel opérateur s'était mis en tête de devenir en premier lieu éditeur de services à valeur ajoutée. L'accès à une telle plateforme n'avait souvent rien de raisonnable et non discriminatoire. Les offres «exclusives» ont souvent marqué un recul pour l'internaute avec des pratiques confinant à la vente liée. Sur cet exemple précis, on voit clairement que l'on aurait beaucoup gagné à encadrer a priori, comme les exceptions qu'elles sont, ces plateformes.

En conclusion, j'estime toujours que :

  • L'activité des FAI doit être encadrée afin qu'ils apportent en premier lieu à leurs abonnés une connectivité internet aux caractéristiques claires. Exemple : ADSL 8 Mbps montant, 1 Mpbs descendant ; fibre 100 Mbps symétrique.
  • Les services gérés doivent être des exceptions validées a priori par le régulateur (aujourd'hui, l'ARCEP), et faire au minimum l'objet d'un accès raisonnable et non-discriminatoire par toutes les parties.
  • Il est plus que jamais nécessaire d'y voir plus clair sur les pratiques contractuelles en matière d'interconnexion. L'ARCEP doit être soutenue dans cette démarche.

Cette position est celle que mon ami Christian Paul avait convaincu le groupe socialiste de défendre à l'hiver 2011, avec cette proposition de loi.

Cette PPL avait été à l'époque un signal pour l'ARCEP et lui avait permis de justifier ses investigations sur l'interco.

Clairement, le débat sur les services gérés n'était alors pas clos. Corinne Erhel, notamment, avait indiqué sa digervence sur ce point.

Depuis cette PPL, Laure de Laraudière a déposé un nouveau rapport sur la neutralité du net soulignant l'intérêt d'une régulation a priori, comme celle qui a été mise en place aux Pays-Bas. Un consensus transpartisan sur une protection forte, et surtout effective, de la neutralité du net semble à porté de main. Ce n'est pas le moment de baisser la garde, par manque de maîtrise du dossier, par prégnance de la culture d'un opérateur historique... ou par un calcul cynique à courte vue.

Accepter que les «services gérés» deviennent un principe général de fonctionnement du net reviendrait à le vendre à la découpe. Aujourd'hui YouTube, demain Facebook, après-demain Twitter... On trouvera bien dans chaque cas une «justification technique». Ne resterait alors qu'un «internet résiduel» dédiée aux courriers électroniques, aux newsgroup et aux protocoles des années 90... Sombre perspective.

Un «paquet libertés» pour protéger nos droits numériques

Les échanges en ligne, plus particulièrement d'oeuvres protégées, sont le plus souvent abordés sous un angle culturel, plus précisément encore de rémunération de la création. Les débats portent ainsi depuis plus de dix ans presque uniquement sur le manque à gagner, himalayesque selon certains, inexistant selon d'autres, que ces échanges causeraient dès lors qu'ils se déploient hors des circuits commerciaux et sur les moyens de contrôler ces satanés internautes qui tirent partie des nouvelles technologies.

Depuis deux ou trois ans, certains, dont je fais partie, ont tenté de repositionner le débat en posant la question de l'équilibre entre les droits. Droit d'auteur, certes, mais aussi droit à l'information, droit à la liberté d'expression, droit à l'initiative économique, droit à être payé pour son travail, etc. C'était notamment le cas dans les travaux que j'avais piloté au «laboratoire des idées» du PS dans le cadre de la préparation du programme, puis celui de la préparation de l'après-hadopi. Des personnes bien plus importantes ont également abordé cette question de cette manière, comme par exemple... la CJUE.

J'en viens à me dire aujourd'hui qu'il faut distinguer le débat sur la rémunération des créateurs de celui des libertés fondamentales. Les échanges en ligne ne sont en effet qu'un petit aspect de ces deux questions. Définir un cadre adéquat pour les créateurs, un «acte 2 de l'exception culturelle» comme l'appellent certains, requiert une réflexion bien plus large que sur les seuls échanges en ligne. Dans le débat sur les droits fondamentaux, la question de la préservation de la rente de Pascal Rogard ou des positions de tel ou tel "industriel de la culture" semble incongrue. Une telle différenciation pourrait, plaisanterie mis à part, apporter un oxygène bienvenu aux débats sur ces deux questions. Sorties de la guerre de tranchées, les forces en présence pourraient se consacrer à d'autres batailles, plus fécondes.

Aussi, il me semble que les promoteurs d'une société ouverte, où l'information et la connaissance circulent et où la transparence de l'action publique est la règle devraient travailler en priorité à un «paquet libertés», ensemble de textes traitant des libertés numériques, pendant que les professionnels de la création discutent le bout de gras avec Pierre Lescure, David Kessler et autres personnes ne connaissant que trop bien leurs intérêts particuliers. Le premier d'entre eux pourrait traiter de la neutralité du net.

À quelques aménagements près, la PPL de Christian Paul, défendue en mars 2011 par le groupe socialiste à l'assemblée, pourrait être reprise, maintenant qu'un consensus semble se dégager sur la nécessité de «prévenir plutôt que de guérir».

Qu'en dites-vous ? Allez, on s'y (re)met ?

Numérique, présidentielles : et après ?

La campagne des présidentielles de 2012 aura été une nouvelle occasion manquée pour le «numérique».

Des trois grandes questions sur ce thème qui ont travaillé l'opinion ces dernières années - l'emploi et l'innovation, la couverture en (très) haut débit et «hadopi» - seule la première a été partiellement traitée.

Les propositions en la matière de Nicolas Sarkozy n'ont pas surpris. Elles sont dans la continuité de son quinquennat. À défaut d'avoir un effet positif, elles ont l'avantage de la continuité et de nous épargner de les discuter plus avant.

François Hollande bien faible sur le numérique

La déception est plus forte du côté de François Hollande. Le traitement de certains thèmes clés, comme les libertés numériques, est en régression manifeste par rapport à 2007, comme le montrent les réponses lapidaires de Fleur Pellerin au questionnaire de Là où le rapport Rocard était souvent trop tiède, les problèmes sont désormais éludés.

Si l'objectif de couverture du territoire en très haut débit est bien affiché, la question clé du financement est éludée. Si des solutions existent, son traitement reste cependant crucial, surtout dans une période de forte contrainte budgétaire.

Les vagues promesses d'un «habeas corpus numérique» et d'un «acte 2 de l'exception culturelle», assorties de lettres et autre déclarations caressant les lobbies les plus régressifs dans le sens du poil n'ont trompé personne.

La société a changé, et le politique ne l'a pas encore pris en compte

Devra-t-on attendre encore 5 ou 10 ans pour voir les profonds changements, pour beaucoup positifs, induits par la mise en réseau de la société enfin pris en compte ?

Quand arrêtera-t-on de vouloir stupidement taxer Google, qui crée pourtant un éco-système favorable à l'innovation, pour subventionner des industries mourantes ?

Quand arrêtera-t-on de réprimer l'échange et l'innovation pour protéger la rente, même artistique ?

Ces questions sont volontairement provocatrices. Les nouveaux acteurs dominants apparus avec l'Internet ne sont pas des anges et la manière dont certains échappent à toute contribution significative aux circuits traditionnels de financement de la collectivité pose par exemple question.

Il est cependant urgent d'initier au plus haut niveau une réflexion de fond sur les profonds changement induits par l'ubiquité des réseaux. On ne communique plus, on ne vit plus, on ne produit plus comme il y a 20, 10 ni même 5 ans. Si cette profonde évolution ne balaie pas les modèles anciens, elle impose la prise en compte des nouvelles pratiques de "la jeunesse", brandie comme priorité par François Hollande, des nouvelles modalités de création de la valeur et des nouveaux équilibres à trouver entre les droits.

Le courage, c'est d'agir !

Droit de propriété, droit à l'information, droit d'auteur, droit d'accès à la culture, droit à être rémunéré pour son travail, droit à la vie privée, entre autres, sont depuis toujours en tension. Ils s'appliquent - parfois bien, souvent mal - au numérique, fortement régulé. Plutôt que de laisser paresseusement la justice trouver lentement de nouveaux équilibres, le politique doit prendre ses responsabilités et arbitrer en fonction de l'intérêt général. Bref, avoir une réflexion sur la société partant non pas des desiderata des lobbies, mais des humains et de choix de société. plutôt que de chercher un point d'équilibre entre les lobbies en présence.

Les lois HADOPI puis la nouvelle entité administrative chargée de leur application ont ainsi été ces dernières années le champ de bataille entre progressistes et conservateurs dans la guerre pour la définition du nouveau équilibre entre les droits à l'ère numérique. Conscients de la dangerosité de l'irruption d'un nouveau concurrent, le public, désormais à la fois créateur et distributeur, les «industriels de la culture» lui ont livré, ainsi qu'aux innovateurs, une intense guerre, souvent sous le prétexte cynique de défendre les créateurs. Certains individus punis pour l'exemple en ont été les victimes emblématiques. Et combien d'entrepreneurs ont été étranglés par des abus manifestes de droits ?

La bataille d'HADOPI, perdue par forfait ?

À cette offensive brutale des «anciens», groupe de lobbies aux intérêts biens compris qui ont depuis longtemps profondément pénétré les circuits de décision des partis «à vocation majoritaire», les «modernes» ont opposé une alliance hétéroclite, bigarrée, foisonnante, affublée de tous les défauts des jeunes mouvements. Plutôt que d'écarter paresseusement, comme cela a été souvent le cas dans cette campagne, d'un revers de la main cette longue bataille en la jugeant annexe au regard des «vrais enjeux» (lesquels ?), il faut prendre pleinement conscience de son importance sociale et politique et lui apporter des réponses adaptées. On parle tout de même d'une révolution dans l'élaboration et la circulation de l'information et de la connaissance ! Si les «grands » partis traditionnels ne le font pas, d'autres, comme les «pirates», dont il est intéressant d'observer le succès outre-Rhin, le feront... dans le meilleur des cas. Au pire, ce sont effet Marine le Pen et ses amis qui se sont les mieux positionnés pour tirer profit de ce manquement...

La vie privée est un autre exemple de terrain de luttes paradoxales entre autorités de régulation et vieux sages alertant sur les dangers de l'exploitation d'une exposition totale des données personnelles ; opérateurs de services "gratuits", dont les utilisateurs sont les véritables produits ; utilisateurs avertis, acceptant une exposition contrôlée contre de nouveaux avantages, bien loin de ces pauvres naïfs qu'il faudrait protéger d'eux-mêmes. Là aussi, de nouveaux droits effectifs sont à instituer. Cela passerait probablement par le soutien aux développements d'outils et systèmes permettant à chacun de maîtriser pleinement sa vie informationnelle.

Vers une innovation administrée ?

Quel acteur innovant du numérique peut, par ailleurs, se réjouir de voir constamment mis en avant par l'équipe de François Hollande comme principale mesure de soutien au secteur la mise en place d'une «banque publique d'investissement», a fortiori régionalisée ? Oseo est pourtant née de la fusion de l'Agence Nationale de VAlorisation de la Recherche (ANVAR), de la Sofaris et... de la Banque de Développement des PME (BDPME).

Le numérique, au contraire peut-être d'autres secteurs, n'a pas besoin d'un retour à une «politique industrielle» telle qu'on la pratiquait encore il y a dix ans. Il n'a pas besoin d'un état-stratège définissant de grandes orientations et mettant en ordre de bataille les forces vives du pays autour de quelques grands objectifs industriels. N'oublions pas, en effet, que les principaux acteurs du monde numérique ne sont pas issus de grandes entreprises pré-existantes ou même du secteur public. Google, Amazon et tant d'autres acteurs dominants de l'économie numérique ont été créés «dans des garages». J'attends de rencontrer le chargé de mission d'une telle banque régionalisée d'investissement qui aurait investi dans Twitter...

Nouveaux biens communs, nouveaux engagements

Plus intéressant encore, les nouveaux «biens communs numériques» que sont les logiciels libres et les créations sous licence permissive «à la Creative Commons», dont l'exemple le plus célèbre est l'encyclopédie en ligne wikipedia, se sont développés hors du secteur public et des politiques étatiques de soutien caractéristiques de la gauche.

Alors que le monde a changé, il nous faut proposer mieux qu'un retour aux vieilles recettes et inventer les politiques de capacitation permettant la production de nouveaux biens informationnels, qu'ils soient publics, communs ou privés. Les manières de "créer de la valeur ont changé". Il nous faut également conférer de nouveaux droits sociaux aux créateurs de tous types, et non pas uniquement ceux dont le métiers existaient en 1950.

Le numérique ne doit plus être une «terre d'exception» où nos principes ne valent pas, où la gauche souhaite l'émergence en France d'un «Steve Jobs», dont le bilan social est pourtant pour le moins sujet à discussion. Le numérique ne doit plus être un sujet annexe, où l'on parachute un protégé en mal de notoriété et multipliant les tentatives de coups médiatiques en guise de campagne. S'il y a du changement ans la manière de créer de la valeur, ne cédons rien sur nos valeurs.

Le (vrai) changement, on le commence comment ?

En numérique comme ailleurs, ou peut-être plus qu'ailleurs, le changement, cela devrait être maintenant ! Le bilan du quinquennat de Nicolas Sarkozy impose de sortir le sortant. Pour autant, la faiblesse du projet finalement très conservateur de François Hollande prive d'un vote d'adhésion...

D'où viendra alors ce changement ? Sur le plan politique, le «front de gauche numérique» me semble être aujourd'hui le plus prometteur. La réflexion ouverte qu'il a initiée à partir de valeurs est extrêmement intéressante tant par ses fondements que par ses modalités. N'oublions pas non plus Europe Écologie, qui a su intégrer bon nombre d'enjeux du numérique dans son corps de doctrine. Cela reste cependant un pari sur l'avenir, à au moins 5 ans.

D'ici là... On peut heureusement compter sur «le net» pour continuer à s'inventer en marge de la puissance publique. Et trop souvent malgré elle...

Contre le terrorisme, vite, une loi en I !

(Les promoteurs d'un internet libre et ouvert regroupent parfois sous le sobriquet "lois en I" les textes proposés par la droite depuis 2002 tendant à limiter les libertés ou à atteindre à la vie privée en ligne. DADVSI, HADOPI, LOPPSI en sont les specimens les plus célèbres.)

Hier, à peine le forcené Mohamed Merah abattu, le Président de la République (majuscules par respect pour la fonction) a déclaré que :

« Toute personne qui consultera un site internet qui fait l'apologie du terrorisme ou qui effectue un voyage à l'étranger pour suivre des travaux d'endoctrinement, ou qui fait l'apologie de l'extrémisme sera punie par la loi. »

Incriminations bien floues et bien larges qui rappellent pêle-mêle :

  • le système de visas soviétique, où une autorisation était requise pour voyager à l'étranger ;
  • la surveillance du net à la sauce libyenne, syrienne - on n'ose dire marocaine, ou qatari, c'est trop politiquement incorrent.

Le réflexe répressif est à nouveau instantané et, comme tout réflexe, précède la nécessaire réflexion sur ce sujet difficile.

Il semble interdit dans le débat français de s'interroger sur les racines de telles dérives. Sur les raisons pour lesquelles des franges entières de la population sont exclues, abandonnées. Et pourquoi, même si la plupart de ces hommes et ces femmes se battent courageusement pour une vie meilleure, quelques individus recourent à des formes d'action aussi odieuses que radicales. Après les tueries, le Premier ministre norvégien avait estimé que son pays allait devoir être plus ouvert et plus solidaire. C'est loin, la Norvège...

Si les crimes de Merah ne sont en rien excusables, il est peut-être temps de s'interroger collectivement sur les contrôles au faciès, la «chasse aux roms» ordonnée par un ministre de l'intérieur, les discriminations à l'embauche, la chasse aux couples mixtes et aux «mariages gris», la stigmatisation des plus pauvres, etc. Tout ce qui fait que, comme le disait déjà Coluche, «certains sont plus égaux que d'autres».

Il est peut-être également temps de s'indigner de la manière dont les médias traitent ce genre d'actualité. À quoi bon nous indiquer qu'un «invidivu français d'origine algérienne» est soupçonné d'être l'auteur de telle ou telle crime ? Le fait d'avoir une carte d'identité française rendrait-il psychopathe ? Y'aurait-il plusieurs types de français ? Nos voisins allemands seraient-ils donc naturellement immunisés contre ce type de dérive ? Cette grille d'analyse communautariste devrait être proscrite par tous les démocrates.

Revenons au dernier coup de menton sarkoziste. Tout comme chez mes amis de Reflets, ce genre de déclaration fait chez moi tilt. Il est synonyme de surveillance généralisée, de DPI, d'analyse du détail de toutes nos communications. Ce qui, en plus d'être dangereusement liberticide, est également et surtout inefficace. À une surveillance de ce type répondra le recours à de la cryptographie forte et à des serveurs mandataires situés à l'étranger. Cette course aux armements numériques rendra encore plus complexe le travail de surveillance, sur commission rogatoire, des forces de l'ordre. Comme le souligne RSF, les dommages collatéraux d'un tel texte seraient considérables.

Tentons une analogie : en réponse à des attentats, Nicolas Sarkozy propose de surveiller toutes les routes et toutes les voitures. Les mieux équipés/formés sauront toujours dissimuler ce qu'ils souhaitent aux forces de l'ordre. Les autres y laisseront leur vie privée. Un pas de plus vers un régime autoritaire, comme le souligne Numerama...

L'étendue du propos sarkozien laisse par ailleurs songeur. Où commencent «les travaux d'endoctrinement» et «l'apologie de l'extrêmisme» ?

La seule arme efficace contre la diffusion de contenus odieux est le retrait de leur source. À l'extrême limite, la France et les démocraties seraient plus efficaces et cohérentes en prônant la «cyber-guerre» contre les sites diffusant de tels textes ou vidéos. Plus largement, la lutte contre le développement de l'extrêmisme passe par celle contre la pauvreté. La radicalité pousse souvent sur la pauvreté et l'exclusion.

Ironiquement, ces déclarations brutales de Nicolas Sarkozy ont lieu le jour où le conseil Constitutionnel censure le coeur de la loi sur la carte d'identité biométique, retoquant la puce e-commerce et, surtout, la création d'un fichier centralisé de données biométriques. Je ne sais pas si des statistiques de censure par le Conseil Constitutionnel existent. En matière de société de l'information, le nombre d'interventions des sages de la rue Montpensier est impressionnant. Triste record d'une époque angoissante...

Le numérique français, coincé à l'époque de «The Artist» ?

(édition : titre original "Une France numérique en noir et blanc ?" modifié en "Le numérique français, coincé à l'époque de "The Artist" ?, selon la suggestion d'Henri Rouillier du Nouvel Obs)

Les médias reviennent ce matin à juste titre sur la belle victoire de "The Artist" aux Oscars. Remportant les récompenses du meilleur film, meilleur acteur, meilleur réalisateur, meilleure musique et meilleurs costumes, est célébré comme le symbole de la réussite du cinéma français.

Le Président de la République a cependant gâché la fête en tentant immédiatement une OPA sur ce succès et en l'attribuant, avec ce culot qui est sa marque de fabrique, à l'HADOPI. Que cette loi aussi répressive que régressive n'ait pas rapporté un euro à la création et que le film ait ironiquement été financé par... Studio 37, la société de production d'Orange n'a probablement aucune importance. Le sarkozysme est depuis longtemps une non-pensée hors sol entretenant un rapport lointain avec la réalité, ergotant au fil des évènements, sans colonne vertébrale idéologique ni même de cohérence.

Cet état de fait pourrait être simplement amusant s'il n'était pas amplifié par une certaine paresse médiatique. Quel journaliste se livre à un exercice basique de «fact checking» ? Qui pour demander au désormais candidat sur quels chiffres, sur quelle analyse il s'appuie ? Comme depuis toujours en France (il en était de même sous François Mitterrand), le Chef de l'État ne saurait être interrogé, repris. Le droit de suite reste cette petite chose charmante propre à nos amis anglo-saxons.

Cette profonde carence de notre démocratie ne contribue pas à réduire la fracture entre des dirigeants pour beaucoup issus du même moule des sciences politiques et une société numérique en rapide évolution, dont les acteurs les plus innovants ne sont souvent pas issus des grandes institutions ou des grandes filières nationales.

Nos amis américains font peut-être d'ailleurs ici une nouvelle fois preuve de cet humour délicieusement moqueur envers nos travers bien nationaux. Le premier film français ainsi primé à Hollywood a été tourné à Los Angeles, et est un hommage muet en noir et blanc... au cinéma américain. «So French !» a-t-on envie d'ajouter, en se disant que les Folies Bergères, l'arc de triomphe et le «gai paris» ne sont pas bien loin.

Au nom de la défense de notre Glorieux Passé et d'une conception absolutiste du droit d'auteur remontant au 18ème siècle, la France continue, en refusant de prendre acte du changement de civilisation induit par la possibilité donnée à chacun d'être non seulement client mais également éditeur de services et de contenus, à mener une véritable guerre à la société de l'information. En plus de voter une litanie de lois idiotes, la France réagit en effet en créant... de nouvelles administrations. Avec cependant, reconnaissons-le, une petite touche sarkoziste innovante : le clientélisme. Aux producteurs de musique et de cinéma est ainsi offerte une HADOPI, coûteuse machine à envoyer des courriers d'avertissement. Aux entrepreneurs du numérique est offert un «Conseil National» nommé par le Président de la République, et que l'on consulte quand cela ne dérange pas trop. Au monde de la musique est promis un «Centre National», dont l'objet principal est de soutenir la production alors que le problème essentiel est de diffusion. Autant de «machins» coûteux et inefficaces, sauf pour répandre la parole du candidat-président - et c'est bien là l'essentiel.

Le mal est très profond et ne relève manifestement pas d'une classique coupure droite/gauche. L'équipe de François Hollande brille en effet par son conservatisme en la matière. Se défendant de ne promouvoir que la culture numérique commerciale pour mieux se concentrer exclusivement sur cette dernière, elle refuse, par peur de déplaire aux lobbies, de choisir entre le saut dans le 21ème siècle et la défense du droit d'auteur à la papa, en estimant qu'«il y aura toujours une petite part d’échanges entre individus, qui sera limitée, marginale, face à laquelle il n’y a pas à avoir de démarche répressive» tout en scandant au MIDEM qu'il n'y aura ni dépénalisation ni légalisation de ces échanges. Comprenne qui pourra... Ce classicisme ne s'exprime hélas pas que sur le seul sujet - emblématique - de «l'après-HADOPI». Pour soutenir l'innovation dans le numérique, le candidat socialiste propose la mise en place... d'une banque des PME. Soit un retour en arrière de 10 ans vers la BDPME. «Le changement, c'est maintenant» ? On remarquera au passage qu'une telle proposition n'a rien de clivant. De la gauche, on attend tout de même qu'elle s'attelle à permettre à chacun d'entreprendre plutôt que de proposer des mesures qui ne bénéficieront in fine qu'à ceux qui ont déjà des fonds propres ou sont capables d'inspirer confiance à une banque (les prêts des institutions publiques comme Oseo ou l'ex-BDPME sont toujours conditionnés à l'obtention d'un prêt auprès d'une banque).

Cette France numérique en noir et blanc n'est pourtant pas une fatalité. Le réalisateur de «The Artist» souligne lui-même qu'un de ses précédents films, «La classe américaine» «n'existe que grâce au téléchargement illégal». Il est temps d'arrêter d'obtempérer servilement aux injonctions des rentiers et de leurs lobbies et de se désintoxiquer de la nostalgie du «bon vieux temps». Il est temps de repartir de la réalité des pratiques et de leur impact pour rétablir l'équilibre entre les droits dans la société de l'information, gravement perturbé par les intégristes de la «propriété intellectuelle». Il est temps d'enfin se préoccuper du public, des innovateurs, mais aussi des artistes, des créateurs et de leur donner de nouveaux droits et des institutions adaptées.

7 critères pour le 1er tour de la présidentielle de 2012

Régulièrement interrogé ces dernières semaines sur mes préférences pour la présidentielle de 2012, je tente de répondre par ce billet. Je suis en effet souvent interpellé par messagerie interposée, dans un format court n'excédant pas 140 caractères. Plutôt que d'enquiller les formules chocs, je préfère tenter de développer (un peu) en tentant de ne pas (trop) m'étendre.

Mon premier critère de choix porte sur la capacité à "faire de la politique autrement". Il m'a constamment guidé ces dernières années, du choix, attiré par Arnaud Montebourg, de rejoindre le PS en 2003 pour "faire changer le parti de l'intérieur" à celui de quitter cette vieille maison peu après l'investiture de François Hollande, convaincu que ce dernier ne ferait qu'en revenir aux vieilles figures et aux vieilles méthodes - les faits m'ont hélas donné raison. Cette "politique autrement" n'a rien de si original quand on y réfléchit bien. Il s'agit en premier lieu d'être en prise avec la société, avec tous les moyens de communication qu'elle peut offrir aujourd'hui. De «faire les forums» comme l'on continue à «faire les marchés», en somme, pour tenter une formule simple. Il s'agit également de prendre pleinement conscience des nouvelles modalités d'organisation de la société induites par les nouveaux moyens de communication. L'organisation en réseau a profondément transformé les manières de s'informer, travailler, vivre de bien d'entre nous, et notamment des plus jeunes. En politique, l'influence des médias de masse décline et l'on peut espérer que les campagnes verticales des années 70-90 ne seront bientôt plus qu'un mauvais souvenir. Un bon candidat doit faire un effort sérieux et sincère de "réinvention de la politique", ou plutôt de retour aux sources. Il doit être prêt à un dialogue ouvert, à décider en réseau voire - transgression suprême - savoir admettre s'être trompé ou avoir changé d'avis. Il ne doit pas être le jouet d'élites médiatiques ou culturelles à l'influence deplus en plus incertaine.

Mon second critère de choix porte sur la politique migratoire et plus largement sur l'ouverture de la société. Je suis internationaliste et mettre des barrières à l'entrée de l'Europe ne me heurte pas moins qu'en mettre à celle de la France. Pour moi,l'information, les savoirs, les marchandises et les hommes doivent circuler librement. J'attends donc d'un candidat qu'il formule des propositions adaptées à ce monde ouvert. Ce thème est le plus souvent abordé à travers deux questions : la taxation des importations et la régularisation des clandestins. J'en ajoute une : la manière dont nous accueillons les immigrés légaux. Marié à une jeune femme russe, je suis encore régulièrement épouvanté par le traitement réservé aux conjoints étrangers, placés de fait dans une situation d'une grande précarité. Les médias se son fait l'écho ces dernières semaines du traitement réservés aux diplômés étrangers. Il est temps de rompre avec cette rupture dans l'histoire de la France...

Mon troisième critère porte sur l'emploi et l'innovation. En cohérence avec les deux premiers, j'appelle de mes voeux une politique permettant à chacun d'être en situation d'innover, de toutes les manières possibles. Pour avoir été impliqué dans trois créations d'entreprises, j'ai développé une aversion certaine pour les solutions bureaucratiques et plus particulièrement pour celles impliquant une forte dose de contrôle a priori. J'attends donc d'un candidat qu'il soit capable à la fois de soutenir quelques filières d'avenir et de libérer les énergies dans les domaines à faible ticket d'entrée, comme l'Internet.

Mon quatrième critère porte sur l'environnement et l'énergie. Autrefois partisan convaincu de l'énergie nucléaire, je ne pense plus aujourd'hui après Tchernobyl et Fukushima que l'on puisse poursuivre dans cette voie tant il est manifeste que nous ne contrôlons que bien mal des systèmes aussi dangereux que complexes. J'attends donc d'un candidat qu'il organise la sortie rapide de la France du nucléaire et soutienne massivement le développement des énergies renouvelables.

Mon cinquième critère porte sur les services publics, et notamment ceux d'éducation et de santé. Alors que l'école est brutalement attaquée et que la France régresse de manière spectaculaire dans les classements internationaux, alors que notre système de santé, considéré en l'an 2000 comme l'un des tous meilleurs du monde, est aujourd'hui gravement menacé, j'attends d'un candidat qu'il prenne les mesures nécessaires au rétablissement et au développement de ces deux services essentiels.

Mon sixième critère porte sur le logement. Ayant la chance de plutôt bien gagner ma vie, je suis effaré devant la rareté des logements en Île de France et l'explosion des loyers.

Mon septième critère porte sur le «numérique». Il rejoint largement le premier, l'important ici étant tout d'abord la prise de conscience de l'importance pour nos sociétés de la généralisation de l'organisation en réseau. Il rejoint également le second et les troisième, la confrontation à l'autre et à ses idées étant synonymes de développement et d'enrichissement, dans tous les sens du terme. J'attends ici plus particulièrement des politiques très fermes de protection des droits fondamentaux, ainsi qu'un effort de capacitation («empowerment») des personnes. De manière très terre à terre, cela veut dire soutenir un projet tel que la Freedom Box, protéger la neutralité du net, refuser ACTA et l'hadopi, et ne pas remplacer cette dernière loi de perpétuation d'un monde en voie de disparition par un dispositif jumeau.

À ce jour, le meilleur candidat est pour moi Éva Joly. J'apprécie de longue date son courage, depuis bien avant qu'elle ne fasse de la politique mandataire. Ses engagements en matière de politique migratoire, pour le développement des filières vertes, la sortie du nucléaire, les services publics et le numérique sont nets et précis. Sauf évènement majeur, elle sera donc mon choix pour le premier tour, et j'espère pour le second.

- page 1 de 3