OWNI http://owni.fr News, Augmented Tue, 17 Sep 2013 12:04:49 +0000 http://wordpress.org/?v=2.9.2 fr hourly 1 Ados et parents ne se parlent pas Net http://owni.fr/2012/11/21/ados-et-parents-ne-se-parlent-pas-net/ http://owni.fr/2012/11/21/ados-et-parents-ne-se-parlent-pas-net/#comments Wed, 21 Nov 2012 15:52:25 +0000 Claire Berthelemy http://owni.fr/?p=126380

Les enfants et adolescents ne communiquent pas avec leurs parents, enfin pas sur le numérique. C’est ce que constate Marie Derain, défenseure des enfants, qui a rendu son rapport hier, le 20 novembre. En substance, elle observe dans “Enfants et écrans : grandir dans le monde numérique” [PDF] une scission entre les utilisateurs (les plus jeunes) et les régulateurs familiaux (les parents la plupart du temps) :

Le contraste est frappant entre la vision méfiante, voire diabolisante, que peuvent avoir les adultes de l’usage du numérique par les adolescents, qui, eux, voient ces vecteurs de communication comme un élément banal de leur quotidien. [...] Les adolescents ne seraient pas conscients des risques de divulgation et de perte de contrôle de leurs informations personnelles. Pourtant, les jeunes adolescents ne sont pas si démunis. Au contraire, ils semblent agir en connaissance de cause, quitte à courir ces risques. [...] Les incertitudes et les angoisses, les interrogations sur son avenir se dissolvent dans un univers virtuel où il reprend la main, qu’il maîtrise via son avatar numérique. Aux confins du réel et du virtuel, du présent et du possible, c’est l’aventure sans risque, la prise de risque sans conséquence, l’expérimentation sans trace ni témoin, du moins l’adolescent veut-il le croire. L’exposition de la vie privée prend alors un autre sens.

La défenseure a conscience de l’ambivalence que peut représenter Internet pour les plus jeunes et elle précise que l’idée générale du rapport veut montrer qu’il est nécessaire de “rapprocher Internet de la famille”. En soulignant que :

Porteurs d’un potentiel d’enrichissement social et individuel encore mal évalué car évolutif, facteurs indéniables de lien social et de dépassement des barrières, ces médias qui s’avèrent aussi vecteurs de connaissances et d’éducation pour tous, ne sont pourtant pas sans risques pour les enfants.

Le manque de paroles

Selon le baromètre “Enfants et Internet” de 2011 de l’opération nationale de sensibilisation “Génération numérique”, 87% des 15-17 ans déclarent connaître les paramètres de confidentialité (ils sont 22% de cette tranche d’âge à ne pas protéger leurs informations personnelles sur les réseaux sociaux), contre 56% des 13-15 ans et 42% des 11-13 ans. Bien peu donc pour la défenseure au regard de ce que les enfants postent à droite et à gauche sur le web. Selon ce même baromètre, 20% des 15-17 ans, 28% des 13-15 ans et 22% des 11-13 ans parlent avec leur proche de leur utilisation du Net. Mais de quoi parlent-ils ? Du temps passé sur la Toile (55% des 8-17 ans selon une enquête de la TNS Sofres). Dans le temps de connexion, il n’y a pas de place à l’utilisation des réseaux et autres sites de partage, vecteurs de lien social — et par conséquent de dépôt de photos qu’on aimerait pas forcément retrouver distillées un peu partout.

Certes. Pour la défenseure :

Il convient de trouver le juste équilibre entre la prévention des risques et la limitation des possibilités.

Mais ce juste milieu aristotélicien pourrait être alors trouvé grâce à des programmes de régulation du Net ? Pas si l’on tient compte de la constitution même du réseau “difficile voire impossible à réguler”. Le seul moyen de réguler Internet n’est autre qu’une forme de discussion entre les acteurs, de l’internaute aux FAI et… de rendre possible — “afin de lutter contre les comportements qui viennent d’être évoqués [pédopornographique, ndlr]“ — le signalement plus rapide de ces comportements.

Formation des profs et des proches

Le dialogue à instaurer avec les acteurs de la socialisation des enfants (la famille et l’école) est l’une des solutions complémentaires à la répression ou la régulation, “difficile voire impossible” donc. Quand les classes sont abreuvées de matériel technologique alors même que les professeurs ne sont pas tous enclins à s’en servir, c’est une difficulté.

Assurer une formation effective aux TICE des principaux acteurs intervenant auprès des enfants (professeurs, éducateurs, animateurs…) — abordant aussi bien la sensibilisation aux risques, les informations sur les systèmes de protection, que l’accès à la culture et à la connaissance. Trop d’initiatives coûteuses voulant mettre en œuvre les ressources numériques à l’école, dans le monde de la culture, de la santé, des loisirs, achoppent faute d’une formation adaptée réellement dispensée aux intervenants, contribuant ainsi à une image de confusion et à la mauvaise utilisation de ces ressources pourtant considérables.

Collégien suréquipé édition limitée

Collégien suréquipé édition limitée

Le bon vieux dictionnaire comme cadeau à l'entrée au collège, c'est terminé : cette année les élèves de 6e du ...

Et si l’Éducation nationale semble prendre conscience progressivement de l’importance que revêt Internet aujourd’hui pour les enfants – et leurs parents – Marie Derain explique que “si les expériences locales foisonnent, l’impulsion institutionnelle est difficile à repérer”.

D’autant que ces dernières s’emmêlent et se renvoient la balle : les ordinateurs distribués aux élèves de sixième du Val-de-Marne seront gérés par des enseignants dont la formation devrait être assurée par… le rectorat. Soit l’académie de Créteil, distincte du Conseil Général du Val-de-Marne à l’origine du programme.

Pourtant, l’enthousiasme est là :

Partout en France, à partir d’engagement personnel des enseignants ou sous l’impulsion d’un recteur dynamique, les outils sont testés, les pédagogies qui s’appuient sur le numérique sont formalisées, faisant émerger quelques orientations.

À souhaiter que le relais soient pris par les enseignants, en complément des parents, pour permettre aux enfants d’appréhender le Net en évitant de vouloir à tout prix une régulation impossible. Pour aider à maitriser l’extimité des enfants ? Le droit à l’oubli numérique pour garantir “la paix et la cohésion sociale”.

Alex Türk, alors président de la Cnil, déclarait en 2009, dans le rapport d’activités, qu’il était “inacceptable et dangereux que l’information mise en ligne sur une personne ait vocation à demeurer fixe et intangible, alors que la nature humaine implique, précisément, que les individus changent, se contredisent, bref, évoluent tout naturellement”. Tout adolescent devenu adulte devrait pouvoir alors “obtenir la suppression de données personnelles qu’il a lui-même mises en ligne” selon ledit rapport. Parce que la diffusion de l’information “est large” mais aussi et surtout parce que

la vie “virtuelle” de l’enfant n’est désormais plus dissociable de sa vie “réelle”, elle en fait partie.

Préconiser l’oubli et l’effacement est une solution qui ne règlerait rien d’autre que l’absence de réflexion au moment de poster sur Facebook une photo à demi-nu. Le droit au déréférencement permettrait aussi “à la personne concernée de demander et d’obtenir la suppression du référencement des informations en question, dans les moteurs de recherche par exemple. Ainsi les données devenues indésirables disparaîtraient non seulement du site où elles ont été initialement introduites, mais aussi de tous les sites qui les ont reprises et diffusées” :

Intégrer le droit au déréférencement au règlement européen actuellement en préparation. Faire reconnaître aux mineurs le droit à une protection renforcée de leur vie privée — droit à l’oubli, droit au déréférencement. En janvier 2012, la Commission européenne a rendu publique une proposition de règlement européen, réformant le cadre de la protection des données personnelles, qui propose plusieurs avancées dans la protection des enfants. En effet, le droit actuel de la protection des données est limité en ce qui concerne les enfants.

Le droit à l’oubli, maille d’un nouvel arsenal juridico-legislatif pour encadrer et “protéger”. Et pallier, sans doute, l’absence ou la pauvreté du dialogue entre ceux qui éduquent et ceux qu’on veut éduquer. Reste à déterminer si les uns ne devraient pas, finalement, être éduqués avant les autres.


Illustration par Soosay [CC-by]

]]>
http://owni.fr/2012/11/21/ados-et-parents-ne-se-parlent-pas-net/feed/ 10
Neutralité sans foi ni loi http://owni.fr/2012/09/20/neutralite-sans-foi-ni-loi/ http://owni.fr/2012/09/20/neutralite-sans-foi-ni-loi/#comments Thu, 20 Sep 2012 18:30:41 +0000 Andréa Fradin http://owni.fr/?p=120553

Le régulateur se remet à la neutralité du net

Le régulateur se remet à la neutralité du net

Le gendarme des télécoms renoue avec la neutralité du net. Dans un rapport remis il y a quelques jours au nouveau ...

Décidément, c’est un peu sa fête ! Après la proposition de loi de la député UMP Laure de la Raudière il y a quelques jours, la neutralité du Net se retrouve une nouvelle fois devant le Parlement. Cette fois-ci, c’est le gendarme des télécoms (Arcep) qui s’y colle, en présentant aux élus et au gouvernement un rapport [PDF] prévu de longue date.

Sur le fond, le document de 134 pages diffère peu de la version présentée au public en mai dernier (lire notre analyse sur le sujet : “Le régulateur se remet à la neutralité du Net”). Plus offensif qu’il y a quelques mois, le régulateur des télécoms ne se montre pas toujours tendre avec les fournisseurs d’accès à Internet (FAI), dont les pratiques et les modèles d’avenir sont ” susceptibles d’entraver, dans certaines circonstances, le principe de neutralité de l’internet” (p.5).

L’Arcep se garde bien néanmoins de se prononcer explicitement en faveur d’une loi protégeant la neutralité du Net. Pas folle la guêpe ! Enlisée dès la rentrée dans un projet très politique de rapprochement avec le Conseil Supérieur de l’Audiovisuel, elle évite soigneusement de pénétrer dans un territoire qui ne serait pas le sien -et qui lui vaudrait quelques coups de tatanes. Tout en rappelant dans un même mouvement subtil son utilité et son périmètre d’action. Pour un résultat mi-figue, mi-raisin.

Pédagogie

S’il ne se démarque pas par son engagement, le rapport de l’Arcep a néanmoins le mérite d’être pédagogique. Un bien nécessaire pour des élus souvent dépassés par les enjeux complexes du réseau.

Ce débat porte essentiellement sur la question de savoir quel contrôle les acteurs de l’internet ont le droit d’exercer sur le trafic acheminé. Il s’agit d’examiner les pratiques des opérateurs sur leurs réseaux, mais également leurs relations avec certains fournisseurs de contenus et d’applications. Peuvent-ils bloquer des services, ralentir certaines applications, prioriser certaines catégories de contenus ? Doivent-ils au contraire s’en tenir strictement au respect du principe d’égalité de traitement propre au « best effort » originel des concepteurs de l’internet ?

Définition de la neutralité, forces en présence, avancées des travaux en Europe comme en France : l’Arcep dresse un panorama assez complet des implications économiques et techniques du concept de neutralité, qui affirme que “les réseaux de communications électroniques doivent transporter tous les flux d’information de manière neutre, c’est-à-dire indépendamment de leur nature, de leur contenu, de leur expéditeur ou de leur destinataire.”

Une notion qui, “bien qu’elle n’ait pas à ce stade fait l’objet de dispositions légales, réglementaires ou même de stipulations contractuelles” écrit l’Arcep, sous-tend le fonctionnement d’Internet depuis ses débuts. Mais avec des utilisateurs toujours plus nombreux, et des services toujours plus gourmands en bande passante (streaming audio, vidéo, jeux en ligne…), certains acteurs souhaitent bousculer ce fonctionnement tacite :

D’une part, les opérateurs soulignent la pression que fait peser la croissance soutenue des trafics sur le dimensionnement des réseaux ; d’autre part, les utilisateurs (internautes comme fournisseurs de contenus et d’applications) rappellent tous les bénéfices tirés d’un modèle neutre, notamment le foisonnement d’innovations et d’usages qu’il a entraîné, et attirent l’attention sur le fait qu’une atteinte aux principes de fonctionnement de l’internet pourrait remettre en cause son développement.

FAI égratignés

Guerre de cyber-tranchées dans laquelle l’autorité des télécoms s’abstient de trancher. Même si elle égratigne, dans un vocabulaire arcepien certes mesuré, quelques arguments et projets commerciaux des opérateurs.

Elle évoque ainsi le risque d’apparition d’un “Internet à deux vitesses”, où le ralentissement ou le blocage de certains contenus “susceptibles d’entraver, dans certaines circonstances, le principe de neutralité de l’internet.” De même, elle s’inquiète de la mise en place “d’offres premium”, pratique “d’autant plus efficace pour un FAI que la qualité de service associée à l’internet «best effort » est basse”, souligne l’autorité.

Le gendarme des télécoms s’abstient néanmoins d’aller au-delà des prérogatives qui sont les siennes. Et justifie sans arrêt ses prises de position, notamment en rappelant le pouvoir que lui confie l’Europe via le Paquet Telecom : le “règlement de différends” qui pourraient apparaître entre les FAI et des sites Internet, ou “la fixation d’exigences minimales de qualité de service.”

Rien de plus ! L’Arcep la joue bonne élève et déclare :

Il appartient désormais au Parlement et au Gouvernement de déterminer les suites qu’ils souhaitent donner à ce rapport.

A peine se permet-elle quelques incartades, afin de mettre en avant ses efforts dans les quatre chantiers qu’elle a mis en place sur la transparence des offres des FAI, la qualité de leurs prestations, la gestion de trafic et l’interconnexion entre les acteurs du Net.

Ou pour rappeler à Orange, Free, SFR, Bouygues et compagnie qu’ils “n’ont pas à prendre l’initiative du contrôle de la légalité des contenus qu’ils acheminent.” Précisant néanmoins en préambule que ces “questions sociétales et éthiques [..] relèvent du législateur, du juge et d’entités administratives autres que l’ARCEP.”

Ou encore pour inviter, toujours avec force pincettes et humilité, le Parlement à renforcer certaines de ses fonctions. Ainsi dans le cadre de l’observatoire de la qualité de l’accès à l’Internet fixe, elle suggère au Parlement, “s’il l’estime utile” bien sûr, “de donner à l’ARCEP les moyens juridiques et financiers pour mesurer de façon plus indépendante les indicateurs de qualité de service.” Une décision qui lui “appartient”, évidemment, dans un dossier où l’éventualité de tricheries de la part des opérateurs a été pointée bien des fois. Subtile art de feindre de ne pas y toucher.

J’ai pas touché !

Une position qui a de quoi agacer. Du côté du collectif de La Quadrature du Net, Benjamin Sonntag lance :

Il faut mettre fin à ce jeu de dupes qui depuis trois ans consiste à empiler les rapports et les déclarations en faveur de la neutralité, tout en se refusant à inscrire dans la loi ce principe fondamental.

Les consommateurs abandonnés aux FAI

Les consommateurs abandonnés aux FAI

C'est aux consommateurs de garantir la neutralité du net. Pas aux institutions. Si les opérateurs limitent l'accès à ...

Il faut dire que l’autorité marche sur des œufs.

Côté européen, elle doit composer avec la position de Neelie Kroes, qui ne se démarque pas par une démarche proactive en matière de neutralité du Net, et celle du régulateur européen, le Berec, qui se montre un poil plus déterminé.

Côté français, c’est encore pire : la sortie d’Arnaud Montebourg, ministre du redressement productif, cet été, contre les décisions jugées trop “politiques” de l’Arcep pendant l’affaire Free mobile, a laissé quelques plaies. Largement rouvertes par le projet de rapprochement avec le Conseil supérieur de l’audiovisuel (traduite en simple “évolution de la régulation de l’audiovisuel” en langage arcepien), lancé à la rentrée par le gouvernement, et qui s’apparente à une sanction politique.

Sans compter que le cabinet de Fleur Pellerin a fait savoir qu’il ne désirait pas se lancer dans une loi sur la neutralité. S’en tenant au statu quo, et renvoyant au régulateur des télécoms en cas de problème. Il ne serait donc pas opportun pour ce dernier de s’opposer, même subtilement, à cet avis, qui va (pour une fois) dans son sens…


Photo [CC-bysa] par Spaghetti Junction

]]>
http://owni.fr/2012/09/20/neutralite-sans-foi-ni-loi/feed/ 2
Les hackers ont enfin fait cracker le Sénat http://owni.fr/2012/07/20/les-hackers-ont-enfin-fait-cracker-le-senat/ http://owni.fr/2012/07/20/les-hackers-ont-enfin-fait-cracker-le-senat/#comments Fri, 20 Jul 2012 09:57:50 +0000 Sabine Blanc http://owni.fr/?p=116590

hacker : pirate informatique.

Avec l’essor de l’internet s’est développée une nouvelle catégorie de pirates (hackers) agissant en groupes et essentiellement motivés par l’appât du gain. Ces groupes mettent au point des outils qu’ils peuvent exploiter directement ou offrir sur le marché à des clients tels que des organisations criminelles ou mafieuses, des officines d’espionnage économique, des entreprises ou des services de renseignement.

En 2008 comme en 2012, le rapport du Sénat sur la cyberdéfense, dont la dernière mouture vient d’être remise par Jean-Marie Bockel, témoigne que le milieu des hackers semble toujours un peu mystérieux à nos parlementaires. Pourtant, en fouillant dans le détail de ses 158 pages, on constate enfin une nette évolution positive dans la façon dont les hackers sont perçus, alors qu’ils font bénéficier de leurs talents nos réseaux depuis plus d’un quart de siècle. On note aussi au passage que le copié-collé si critiqué quand il s’agit d’élèves pompant Wikipedia semble ici une pratique tolérée.

Le point vocabulaire

En 2008, c’est bien simple, les rares occurrences du terme hacker sont synonymes de pirate informatique mercenaire. Quatre ans plus tard, si la définition dans le glossaire est la même, les occurrences sont plus nombreuses et nuancées, quitte à contre-employer le terme hacker.

Premier grand pas en avant, la sémantique s’étoffe, même si sa précision reste relative :

On peut distinguer trois catégories de « hackers » selon leurs motivations :
- Les « chapeaux blancs » (« white hats ») : Il s’agit souvent de consultants en sécurité informatique, d’administrateurs réseaux ou de cyberpoliciers, qui se caractérisent par leur sens de l’éthique et de la déontologie ;
- Les « chapeaux gris » (« grey hats ») pénètrent dans les systèmes sans y être autorisés, pour faire la preuve de leur habileté ou pour alerter l’organisme visé des vulnérabilités de ses systèmes, mais ils ne sont pas animés par des intentions malveillantes ou criminelles ;
- Enfin, les « chapeaux noirs » (« black hats ») regroupent les cybercriminels, les cyberespions ou les cyberterroristes. [...]

Ce qui n’empêche pas le rapport de dire qu’“il existe d’autres groupes de « pirates informatiques », comme « telecomix.com » qui défend la liberté d’expression sur Internet” Telecomix.org a dû bien s’amuser de découvrir que leur cluster était en fait une société commerciale. Le texte évoque aussi des “attaques informatiques ont été ouvertement revendiquées par des groupes de « hackers » patriotiques turcs, à l’image des groupes « GrayHatz » et « Millikuvvetler », et par d’autres « hackers » indépendants.” On n’abandonne pas facilement vingt ans de clichés.

Retard français

Ce soin nouveau apporté à la définition témoigne d’un changement net de regard sur la communauté des hackers. “L’État doit s’appuyer sur les hackers” : le credo d’Éric Filiol est enfin arrivé aux oreilles du Sénat. Si le directeur du laboratoire de sécurité informatique de l’École Supérieure d’Informatique Electronique Automatique (ESIEA) n’a pas été auditionné directement, il est cité à plusieurs reprises :

Il faut chercher les ressources là où elles sont. Chez les hackers que l’on a tendance à diaboliser à l’excès.

Plus loin, ses propos sont encore repris pour souligner le paradoxe juridique français. La loi Godfrain de 1988 puis la Loi pour la confiance dans l’économie numérique (LCEN) de 2004 ont en effet mis de gros bâtons législatifs dans les roues des hackers :

Or, actuellement, notre législation ne permet pas la publication, même à des fins scientifiques, de vulnérabilités décelées à la suite d’intrusions dans les systèmes informatiques, ce qui oblige les « pirates informatiques » français à publier le résultat de leurs recherches dans les revues d’autres pays, notamment aux États-Unis, ou lors de conférences de « hackers ».

Depuis quatre ans, les avancées majeures en matière de cryptanalyse ne sont plus publiées dans les conférences académiques mais dans les conférences de hackers ». [Aux yeux d'Éric Filiol], il existe une véritable fracture en France entre « un monde d’anciens qui administrent mais qui ne comprennent rien à la technique et de jeunes hackers qui maîtrisent mais qui n’administrent pas ».

Cruel miroir que tend cette dernière phrase au Sénat, entre autres… Mieux vaux tard que jamais, la main est tendue envers cette communauté avec qui une collaboration officielle serait fructueuse :

A cet égard, pourquoi ne pas renforcer aussi les liens avec la « communauté de hackers » français, dont la plupart sont désireux de mettre leurs compétences et leurs talents au service de leur pays ?

Dangereux hackers d’intérêt public

Dangereux hackers d’intérêt public

Depuis jeudi et jusqu'à samedi soir, en plein Paris, le festival Hackito Ergo Sum réunit la crème des hackers sur les ...

Interrogé par le sénateur Robert del Picchia (UMP) sur la collaboration déjà existante avec les services de l’État, Jean-Marie Bockel ne répond pas car officiellement, les hackers restent dans leur coin. Officieusement, les hackers français sont ainsi de vieilles connaissances des services secrets. En 1989, un pâle alter ego du Chaos Computer Club, le club de hackers le plus réputé au monde, est monté à Lyon à l’instigation de la DST pour surveiller le milieu et retourner des éléments : le Chaos Computer Club de France, qui aura surtout pour effet de jeter l’opprobre sur le terme hacker pendant de longues années en France. Et lors du dernier Hackito Ergo Sum, qui a rassemblé au printemps la crème des hackers à Paris, la présence d’agences gouvernementales n’était un secret pour personne.

Une communauté fournie et patriote

Le rapport se montre optimiste sur l’avenir de cette collaboration, en s’appuyant sur des données au doigt mouillé, dont la source n’est pas précisée. Le texte dessine une communauté fournie et patriote, sans qu’on en sache plus sur ce qui leur permet d’affirmer cela  :

D’après les informations recueillies par votre rapporteur, la « communauté des hackers » serait estimée en France à environ 4 000 personnes. Nombre d’entre eux seraient désireux de mettre leurs compétences et leurs talents au service de notre pays.

Les États-Unis sont cités comme un exemple d’écosystème favorable à l’émergence de “sociétés privées de conseil et d’assistance en matière de sécurité informatique”. Où la présence de guillemets autour de certains termes montre que la maitrise du sujet peut encore être améliorée :

D’ailleurs, certaines entreprises américaines, à l’image de Microsoft ou de Facebook, ne s’y sont pas trompées, en lançant un appel public à tous les « hackers » pour déceler les vulnérabilités de leurs systèmes informatiques, réalisant ainsi gratuitement et à l’échelle mondiale un audit de leur sécurité informatique. [...]

Aux États-Unis, les « communautés de hackers » sont d’ailleurs largement reconnues et entretiennent des relations étroites avec les autorités chargées de la sécurité des systèmes d’information. On peut ainsi mentionner la communauté de « hackers » « Defcon », qui compte plus de 12 000 membres aux États-Unis et qui entretient des relations avec le département de la défense et l’agence de sécurité nationale (NSA).

Pourtant l’évolution législative européenne va à l’encontre de ces recommandations de bon sens. Un projet de directive prévoit de pénaliser la possession et la distribution d’outils de hacking pour lutter contre la cybercriminalité, dans la lignée de la LCEN.


Photo du Sénat par Saturne [CC-by-sa] via Flickr, remixée via la machine à mèmes.

À lire aussi sur Reflets.info :

Rapport Bockel : un point sur la cyberdéfense française

Tu t’es vu quand tu parles des pirates chinois ?

Et à revoir sur Owni, l’interview de Stéphane Bortzmeyer, ingénieur à l’Afnic (l’association en charge d’attribuer les noms de domaine en .fr), engagé dans l’équipe de campagne du Front de gauche. Il avait donné lors du festival de hackers Pas sage en Seine une conférence intitulée “Le technocrate, le geek et le politique ignorant”.

Cliquer ici pour voir la vidéo.

]]>
http://owni.fr/2012/07/20/les-hackers-ont-enfin-fait-cracker-le-senat/feed/ 10
Le trac électoral de l’Hadopi http://owni.fr/2011/10/02/trac-electoral-hadopi-2012-rapport-activite-autorites/ http://owni.fr/2011/10/02/trac-electoral-hadopi-2012-rapport-activite-autorites/#comments Sun, 02 Oct 2011 13:15:36 +0000 Andréa Fradin et Guillaume Ledit http://owni.fr/?p=81805 La Haute autorité pour la diffusion des œuvres et la protection des droits sur Internet (Hadopi) veut surtout survivre à l’élection présidentielle. Et s’évertue dans son rapport d’activité, avec une lourdeur à peine retenue, à promouvoir des engagements de campagne. À la lire, exit l’aspect répressif, l’Hadopi voudrait endosser le rôle de gardienne officielle du net.

Naturellement, dans ce document, l’institution insiste sur des chiffres et des taux, comme ces 500 000 recommandations envoyées à des abonnés peu scrupuleux, ou ces “4 ‘chats’ effectués avec les internautes”. Mais l’essentiel, comme souvent, est en filigrane.

“Rendez-vous en juin 2012″

Un peu à l’image de la “réponse”, graduée, le titre de l’édito de Marie-Françoise Marais (MFM), la présidente de l’Hadopi, est “subtil”. En donnant “rendez-vous en juin 2012″, MFM promet de se retrouver un mois après mai 2012. Soit un mois après l’élection du nouveau président. Car forcément, l’Hadopi sera encore là.

MFM l’explique bien : 2010 et 2011 n’ont été que les “premiers jalons de l’encouragement au développement de l’offre légale”. Les “douze mois à venir permettront de consolider et d’élargir les résultats d’ores et déjà obtenus.” Et d’enfoncer le clou :

Au simplisme des solutions toutes faites, nous opposons la rigueur d’un travail de fond réalisé dans la durée.

Là encore, subtil tacle aux partis décidés à se débarrasser de la Haute Autorité. Ambition affichée du côté du PS, les intentions sont moins claires du côté de la majorité, qui rechigne à parler de l’avenir de l’Hadopi. Introuvable dans les pages du programme numérique de l’UMP, la thématique s’est vue reléguée à la Convention Culture du parti. Dont la proposition de taxer les fournisseurs d’accès à Internet, proposée fin septembre, s’est finalement vue démontée par Laure de La Raudière, secrétaire du parti en charge du numérique. La boucle est sans fin et les têtes de l’Hadopi le savent : embourbés dans le bouzin depuis deux ans, ils font logiquement valoir qu’ils sont les plus à même de trouver une solution viable à la valorisation de la création diffusée sur le net. Ce qui n’est pas sans quelques ajustements.

Adieu Père Fouettard, bonjour liberté !

Nouveaux maîtres mots de l’autorité, le “long-terme” et la “durée” ont un autre avantage : ils portent l’attention vers l’avant et font oublier le passé. Effet commode qui atténue (jusqu’à sa disparition ?) le caractère répressif de l’Hadopi, qui oeuvre clairement à se distancer de la machine à gaz riposte graduée et de son bras armé, la Commission pour la Protection des Droits (CPD).

De l’avis de son secrétaire général Éric Walter, “la réponse graduée ne saurait, à elle seule, remplir la mission de protection des droits sur Internet”. Et ne constituerait qu’un “rappel à la loi massif”. Bien entendu, le service après-vente se poursuit : cette riposte devenue réponse est “bien installée”, “bien acceptée” et fonctionnelle. Mais reste inadaptée, tant aux pratiques des internautes, telles le streaming ou le direct download, qu’aux “attentes de certains créateurs”. Mieux vaut donc passer rapidement dessus pour valoriser le “travail approfondi et d’analyses” de l’Hadopi, notamment au sein des Labs.

Les autorités en fusion

Qui dit transformation, dit nouveau champ de compétences. Et en valorisant le travail des Labs, l’Hadopi place d’emblée ses pions pour l’après-2012: “l’émergence des TV connectées”, ou bien encore les “questions de filtrage ou de blocage qui “soulèvent tant de questions en terme de libertés publiques”. Des thématiques auxquelles l’institution était jusqu’à présent peu familière, insistant davantage sur l’envoi des mails aux contrevenants ou la mise en place d’une offre légale. Des thématiques qui viennent alimenter le rôle que souhaite tenir l’Hadopi : celui de gardienne du net français.

Sur ce point, son secrétaire général se montre très clair :

Autorité publique indépendante, unique institution française exclusivement dédiée à l’Internet, l’Hadopi aborde son deuxième exercice avec sérénité, conviction et le souci d’enrichir continûment sa compétence.

En se positionnant de la sorte, l’Hadopi donne corps à un véritable serpent du mer de la régulation du net : la fusion des autorités en charge de la question. Le rapprochement du CSA (Conseil Supérieur de l’Audiovisuel), de l’Arcep (Autorité de Régulation des communications électroniques et des postes), de la Cnil (Commission nationale informatique et libertés) et donc de l’Hadopi est abordé à mots à peine couverts par Eric Walter :

Aux approches “réseaux”, “contenus” ou “libertés” pré-existantes, elle apporte le complément indispensable d’une approche globale fondée sur la compréhension et la pratique de l’Internet et de ses utilisateurs.

On attend les réactions de l’Arcep, du CSA et de la Cnil, auxquels le secrétaire général de l’Hadopi fait respectivement allusion.
Du côté de l’UMP et du PS en revanche, on confirme déjà que la question d’une fusion est examinée de près.

Opé’ com’ réussie?

L’installation au forceps dans le paysage réglementaire français de la Haute Autorité ne fait plus débat. Sa légitimité et son institutionnalisation semble confirmées par l’éditorial du Monde du 30 septembre. Intitulé: “Hadopi: attendre avant de cliquer ‘poubelle’”, il reprend un certain nombre des éléments de langage de la Haute Autorité, avant de conclure:

Les technolâtres, as du clavier et rois du téléchargement clandestin, y voient une démarche ringarde qui ne tiendrait pas compte de la singularité absolue de l’Internet. On serait en présence d’une technologie dont la nature même devrait la dispenser de toute tentative de contrôle.
Comment s’y résoudre ? Patientons encore avant de juger le travail de régulation de l’Hadopi. En attendant, elle est un outil intéressant – certes un peu cher – de connaissance du Net.

Patience, donc. Et rendez-vous en juin 2012, puisqu’on vous le dit. D’ici là, nul doute que la “minorité active [qui] s’estime devoir être en opposition frontale avec l’institution [et] revendique le droit de ne pas respecter la loi” continuera à trouver des moyens de contourner la Hadopi, ne serait-ce que par l’utilisation du streaming.
C’est d’ailleurs l’un des enjeux dont se sont saisis les “Labs” de l’Hadopi, ces “ateliers collaboratifs” constitués d’experts et particulièrement mis en avant tout au long du rapport (69 occurrences).

Une promotion faite à un nouveau mode de régulation censé être plus en phase avec les usages du réseau, et qui permettrait là encore de préparer l’avenir de la Haute Autorité. Cette volonté de renier le péché originel qui a présidé à la création de l’Hadopi se retrouve également dans la conclusion de son bilan d’activité :

Sur la durée, seule une institution dédiée peut conduire un tel travail. Avoir permis qu’une telle institution existe est sans conteste le très grand mérite de la loi création et Internet qui, partant d’un constat, a à la fois posé les jalons des premières solutions mais surtout installé l’outil qui permettra de les faire évoluer en tenant compte des transformations à l’œuvre.

Et pour les 20 à 60 personnes concernées pour l’instant par la troisième étape de la riposte graduée, ce sera aux tribunaux de dire le droit.


Crédits photos CC FlickR par erinblatzer

]]> http://owni.fr/2011/10/02/trac-electoral-hadopi-2012-rapport-activite-autorites/feed/ 4 Vidéosurveillance : ce que révèle la Cour des comptes http://owni.fr/2011/07/14/videosurveillance-ce-que-revele-la-cour-des-comptes/ http://owni.fr/2011/07/14/videosurveillance-ce-que-revele-la-cour-des-comptes/#comments Thu, 14 Jul 2011 10:26:13 +0000 Jean Marc Manach http://owni.fr/?p=73685

Claude Guéant est un fin communiquant : ses remontrances à l’encontre de la Cour des comptes, lancées alors même que les journalistes n’avaient pas encore lu le rapport de la Cour sur le coût et l’efficacité de la politique de sécurité initié par Nicolas Sarkozy en 2002, ont été tout autant, sinon bien plus médiatisées que les problèmes soulevés par les magistrats.

La lecture du chapitre consacré à la vidéosurveillance devrait être rendu obligatoire à tout maire désireux d’équiper sa ville de caméras. On y apprend en effet que les préfets, chargés de promouvoir la vidéoprotection, autorisent de nombreuses installations de vidéosurveillance à violer la loi censée l’encadrer, et que les commissions départementales censées les contrôler n’en ont ni les moyens, ni la volonté… réduites à “s’assurer que le formulaire de demande (d’autorisation) est correctement rempli“.

Accessoirement, on apprend aussi que le ministère de l’Intérieur, qui veut tripler le nombre de caméras, ne sait pas compter : il avait en effet évoqué “environ 30 000 caméras en 2009, et 40 000 en 2010“. Or, l’enquête de la Cour, effectuée à partir des données rassemblées par la direction de la police et de la gendarmerie, a conduit à une estimation d’environ 10 000 caméras de surveillance de la voie publique à la fin de 2010…

La Cour des comptes s’étonne par ailleurs des conditions d’autorisation des systèmes de vidéosurveillance, que Charles Pasqua avait réussi, en 1995, à retirer du périmètre de la CNIL pour le confier aux préfets, et donc au ministère de l’Intérieur :

La commission départementale de la vidéoprotection se borne à vérifier que les engagements écrits, pris par le pétitionnaire, sont conformes à la réglementation.
Elle ne se rend jamais sur place. De fait, elle n’a aucune marge d’appréciation et son rôle est exclusivement formel : elle s’assure que le formulaire de demande est correctement rempli et que les pièces exigées sont jointes.

Chambre d’enregistrement administrative, “la commission ne se prononce pas sur le bien-fondé du recours à la vidéosurveillance au regard des risques en matière de sécurité publique“, ce qui fait dire à la Cour des comptes que “la fiabilité du régime d’autorisation expose entièrement sur la bonne foi des pétitionnaires“. Logiquement, “les avis négatifs sont exceptionnels“.

La Cour déplore également l’”examen rapide des dossiers“, et les “difficultés techniques” auxquelles les commissions sont confrontées : un président généralement débordé et “peu disponible pour exercer sa fonction“, des représentants “souvent absents des réunions” et difficiles à réunir, “faute de candidats“, un nombre de dossiers parfois “très élevé (près de deux cents dans les Bouches du Rhône)” rendant l’examen des dossiers complexes “souvent superficiel et rapide” :

Les membres de la commission les découvrent sur table. Le secrétariat de la commission n’est pas en mesure d’effectuer un travail préparatoire par manque de temps et de moyens.
Ainsi, la demande d’installation de 357 caméras supplémentaires par la ville de Nice, reçue en préfecture le 22 juin 2009, a fait l’objet d’un avis de la commission départementale daté du lendemain.

La Cour des comptes déplore enfin “l’absence de moyens matériels et humains” rendant impossible toute forme de contrôle a posteriori.

Des préfets juges et parties

Dans un chapitre consacré au “large pouvoir d’appréciation du préfet“, les magistrats rappellent par ailleurs que ce dernier est “chargé de promouvoir auprès des élus locaux les avantages de la vidéosurveillance de la voie publique (et) de mettre en œuvre un « plan départemental de développement de la vidéoprotection » dans les sites les plus sensibles“.

Or, le préfet est aussi celui qui délivre “les autorisations d’installation de tels systèmes“… Une double casquette d’autant plus facile à porter que “le préfet n’est pas lié par l’avis rendu par la commission départementale, qui n’est que consultatif“, et qu’”il peut passer outre un avis défavorable“, comme ce fut le cas, notent les magistrats, pour l’installation de 32 caméras de vidéosurveillance à Corbeil-Essonnes en 2006.

Signe que la vidéosurveillance est moins corrélée à la délinquance qu’au sentiment d’insécurité, la Cour souligne enfin qu’une “circulaire ministérielle a donné instruction aux préfets de considérer que le risque d’insécurité est avéré même si le lieu ou l’établissement à surveiller n’ont pas connu d’agression ou de vol au moment de la demande“…:

Les préfets disposent donc d’une grande marge d’appréciation. Ils accordent des autorisations d’installation de caméras de surveillance de la voie publique dans des quartiers où la délinquance baisse ou dans des communes où son niveau est faible.

Non content d’autoriser des caméras dans des endroits “où la délinquance baisse“, les préfets prendraient également quelques libertés avec la loi, à en croire les magistrats, qui ont découvert que les arrêtés préfectoraux “ne respectent pas toujours les exigences relatives à l’identité et la qualité des personnes chargées d’exploiter les systèmes et de visionner les images” et que, dans certains cas, “la formulation retenue mentionne des personnes qui ne peuvent matériellement être celles qui visionneront effectivement les images”.

Ainsi, dans d’autres communes, c’est le maire, l’un de ses adjoints, ou encore le garde-champêtre, qui est censé surveiller les écrans de contrôle… quand ce n’est pas une entreprise privée, comme ce fut le cas pour les 28 caméras de la commune de Cluses, “en infraction avec la loi, (…) ce que le préfet ne pouvait ignorer lors de la demande d’autorisation“, relève les magistrats.

Seuls les fonctionnaires de police (nationale ou municipale) ou de gendarmerie sont en effet habilités à accomplir des missions de surveillance de la voie publique.

Dans un chapitre intitulé “Des autorisations d’une régularité contestable“, la Cour des comptes rappelle ainsi aux préfets que “la faculté, généralement laisse aux communes par les autorisations préfectorales” de confier, indifféremment à des policiers municipaux ou à des agents d’un autre statut, la charge d’exploiter ou visionner les images “est contraire aux textes en vigueur“.

En conclusion de son rapport, la Cour des comptes estime ainsi que “les préfets remplissent imparfaitement leurs missions quand ils autorisent l’installation de systèmes de vidéosurveillance de la voie publique sans appliquer de façon rigoureuse toutes les dispositions prévues en ce qui concerne la qualité des personnes chargée de leur exploitation” :

Elle constitue une infraction à l’article 10 de la loi du 21 janvier 1995 et au code général des collectivités territoriales.

Des employés peu ou pas formés, ni assermentés, ni agréés

La situation se corse avec le “double problème de formation et de qualification” de ceux qui, “employés communaux changés de service, anciens policiers municipaux, agents de médiation reconvertis, personnel reclassé (agents de service, assistantes maternelles, gardiens de musée)“, sont chargés d’exploiter les images des caméras sans y avoir été préalablement formés :

La Cour et les chambres régionales des comptes ont souvent constaté la faible professionnalisation des agents communaux chargés d’exploiter les systèmes de vidéosurveillance de la voie publique, notamment de visionner les images.

Les magistrats s’étonnent également du fait qu’”ils ne sont ni assermentés ni agréés“, et que nombreux sont les centres de supervision qui, “comme celui de Corbeil-Essonnes, ne possèdent ni règlement intérieur, ni projet de service, ni instruction ou note du maire définissant leurs missions et responsabilités“, ou encore la liste nominative de ceux qui sont habilités à visionner les images.

Pour autant, écrivent les magistrats, “les risques de dérives dans l’utilisation des systèmes de vidéosurveillance sont réels, notamment en matière de respect de la vie privée“, comme l’avait souligné le rapport sur la vidéosurveillance de l’Institut national des hautes études de la sécurité et de la justice (INHESJ) :

Le non respect de la confidentialité demeure le talon d’Achille de la vidéoprotection. Une seule dérive en la matière peut ruiner l’image de tout le dispositif. Sourcilleuse des éventuelles atteintes à son image, l’opinion publique pourrait vite changer si des dérapages étaient constatés et médiatisés.

Un coût estimé à 600 millions d’euros par an

Dans son étude Vidéosurveillance et espaces publics, le spécialiste Tanguy Le Goff avait estimé à 20 000€ le coût global moyen d’installation d’une caméra. Les magistrats, eux, multiplient quasiment le chiffre par deux, estimant le coût moyen pondéré à 36 600 € TTC, par caméra :

L’objectif gouvernemental de triplement du nombre de caméras installées sur la voie publique entre 2010 et 2012 représenterait un coût de l’ordre de 300 M€.

En terme de coût d’exploitation (incluant maintenance technique et rémunération du personnel), là non plus les caméras ne coûtent pas partout pareil. En moyenne pondérée, la vidéosurveillance coûterait 7 400 € par caméra et par an, ce qui, d’un point de vue strictement comptable, fait là aussi quelque peu tiquer la Cour des comptes :

Sur cette base, le triplement de vingt à soixante mille du nombre de caméras de vidéosurveillance, visé par l’État, représenterait une dépense supplémentaire de fonctionnement de l’ordre de 300 M€ par an pour les communes et les établissements intercommunaux, soit l’équivalent de la rémunération d’un tiers (6 500 policiers municipaux) des effectifs actuels des polices municipales.

Et plus il y a de projets subventionnés, moins il y a d’argent par caméra : “le coût des investissements des 533 projets de vidéosurveillance subventionnés en 2009 a été nettement moins élevé, soit en moyenne 136 457 € par projet et 7 570 € par caméra installée.“ Et, cette année, la subvention, allouée par caméra, a même été divisée par plus de deux : “au cours des dix premiers mois de l’année, le comité de pilotage stratégique a choisi de sélectionner 720 projets représentant 7 698 caméras pour un total de subventions du FIPD de 27,782 M€, soit 3 610 € par caméra.”

L’État subventionne largement la vidéosurveillance, au point d’y consacrer “plus de 60%” des crédits de son Fonds interministériel de prévention de la délinquance (FIPD). Mais si le raccordement des caméras aux services de police et de gendarmerie est subventionné à 100%, par contre, les frais de fonctionnement, de maintenance et de renouvèlement sont à la charge des collectivités. Ce qui fait que de plus en plus de villes ont des caméras qui… ne fonctionnent plus, faute de budget pour les réparer.

Une efficacité qui reste à démontrer

En attendant, le programme de triplement en trois ans (2010-2012) du nombre de caméras de surveillance de la voie publique “nécessite un investissement qu’on peut estimer à 300 M€, subventionné, en moyenne, à hauteur de 40 % par l’Etat“, les collectivités territoriales devant, elles financer “60 % de l’investissement (plus) les dépenses de fonctionnement, de l’ordre de 300 M€ par an” :

En conséquence, il aurait été souhaitable, notamment du fait de l’importance des sommes en jeu, qu’une évaluation de l’ efficacité de la vidéosurveillance accompagne, sinon précède, la mise en œuvre, de ce plan de développement accéléré.

Or, déplore la Cour des comptes, et contrairement au Royaume-Uni, pays le plus vidéosurveillé, “aucune étude d’impact, réalisée selon une méthode scientifiquement reconnue, n’a encore été publiée“, alors même que les premières villes vidéosurveillées le sont depuis le milieu des années 90, et que le gouvernement ne cesse d’en vanter les mérites :

Revenant sur le rapport réalisé, à la demande du ministère de l’Intérieur, afin de démontrer “l’efficacité de la vidéosurveillance“, les magistrats soulignent “les résultats contradictoires ainsi que sa méthode (qui) ne permettent pas d’en tirer des enseignements fiables” (voir Un rapport prouve l’inefficacité de la vidéosurveillance).

Censée évaluer l’efficacité des caméras filmant la voie publique, l’étude se basait ainsi sur les caméras de la RATP et des transports en commun lillois… et non celles contrôlées par la police ou la gendarmerie. Le rapport précité dressait de même une liste de 18 “faits marquants d’élucidation, grâce à la vidéoprotection“, reposant essentiellement sur des caméras installés dans des hôtels, bureaux de tabac, supermarchés… et même la vidéo d’un mariage.

La Cour des comptes relève également l’extension des domaines d’utilisation de la vidéosurveillance, passés progressivement des “objectifs initiaux (que) sont la surveillance de la voie publique, des bâtiments communaux ou encore du trafic routier” à une “gestion urbaine de proximité” :

Ainsi, depuis la fin de 2009, sur certaines artères de Cannes, les véhicules en infraction, notamment garés en double file, peuvent être photographiés par les caméras et les contrevenants reçoivent un timbre amende dans les 48 heures.

A Nice, en outre, un partenariat a été engagé avec la police nationale, auquel ont participé financièrement la commune et le département, pour mémoriser les plaques d’immatriculation de tous les véhicules entrants et sortants de la ville.

Initiée pour lutter contre la délinquance, la vidéosurveillance, rebaptisée « vidéoprotection » par la LOPPSI 2 est aujourd’hui “considérée, davantage encore en période de baisse des effectifs de policiers et de gendarmes, comme l’un des principaux moyens pour réduire le nombre de délits et améliorer leur taux d’élucidation“. La lecture du rapport de la Cour des comptes fait plutôt penser au programme analysé par Michel Foucault dans son ouvrage sous-titré “Naissance de la prison” : Surveiller et punir. Mais à quel prix ? Au profit de qui ? Et pourquoi ?

Dans sa réponse aux magistrats, Claude Guéant dénonce “un nombre important d’inexactitudes, d’erreurs d’analyse, d’oublis et d’appréciations manquant parfois d’objectivité“. Mais plutôt que de mentionner les caméras installées sur la voie publique, dont toutes les études ont démontré l’inefficacité, il se contente d’évoquer les… 15 000 caméras des réseaux fermés de transport public de Paris et sa banlieue pour justifier sa volonté de suivre l’objectif fixé de tripler le nombre de caméras.

Photo CC Flickr Pas d'utilisation commercialePartage selon les Conditions Initiales x’tof PaternitéPartage selon les Conditions Initiales charlesdyer, PaternitéPas d'utilisation commercialePas de modification kakhun.wart et PaternitéPas d'utilisation commercialePartage selon les Conditions Initiales _boris

MAJ 16.11.2011 : photos de Pulpolux [cc-by-nc] via Flickr

Une Marion Boucharlat pour OWNI /-)

À lire aussi

La vidéosurveillance laissée en jachère

Vidéosurveillance : rions un peu avec Estrosi, et la LOPPSI

]]>
http://owni.fr/2011/07/14/videosurveillance-ce-que-revele-la-cour-des-comptes/feed/ 16
Pour un Internet “neutre et universel” http://owni.fr/2011/04/14/neutralite-internet-rapport-de-la-raudiere-neutre-universel/ http://owni.fr/2011/04/14/neutralite-internet-rapport-de-la-raudiere-neutre-universel/#comments Thu, 14 Apr 2011 15:29:00 +0000 Andréa Fradin http://owni.fr/?p=56882 Contre le blocage d’Internet et pour la promotion d’une neutralité des réseaux, dont l’effectivité doit être surveillée: c’est un rapport engageant que les députés Laure de La Raudière (UMP) et Corinne Erhel (PS) ont remis hier à la commission des affaires économiques de l’Assemblée Nationale. Elles n’auront finalement pas attendu l’Europe pour publier le résultat de leur réflexion, comme annoncé lors de la publication d’un rapport d’étape en mars dernier.

Sur les 87 pages du rapport (voir le document sur Scribd), les deux parlementaires déroulent une étude engagée mais prudente, qui n’hésite pas à proposer une réflexion plus poussée sur des éléments qui leur font défaut, tout en tranchant dans le vif: ici, pas question d’un Internet ouvert, mais juste d’un “Internet neutre”, qu’il s’agit de préserver en l’état. Une position qui va de soi pour Laure de La Raudière, qui déclarait à l’occasion de la présentation à la presse:

si l’on est attaché à un Internet neutre universel, il ne peut être question d’autre chose qu’un Internet neutre et ouvert.

CQFD -pour une fois bien mérité.

Quatre axes, déclinés en neuf propositions, et qui forment “un ensemble cohérent”, ont tenu à préciser les deux députés, ont été avancés pour préserver l’écosystème réticulaire. Au programme: l’inscription dans la loi du principe de neutralité (premier axe), un rôle renforcé pour l’Arcep qui devra notamment garantir la “qualité de l’Internet” (premier et troisième axes), l’étude du marché de l’interconnexion et des solutions de financement des infrastructures de réseau (quatrième axe), et, pour finir en beauté, un énorme tacle à l’encontre du blocage d’Internet (deuxième axe), dont l’encadrement est jugé comme particulièrement prioritaire. Une initiative encourageante, comme le souligne la Quadrature du Net, qui cherche en premier lieu à protéger les intérêts des utilisateurs, mais dont la portée effective – au moins législative-, n’a rien de certain.

Anti-blocage des routes

Proposition n°3: s’interroger plus avant sur la justification des mesures de blocage légales, en dépit de leur légitimité apparente, du fait de leur inefficacité et des effets pervers qu’elles sont susceptibles d’engendrer.

Rapport d’information sur la neutralité de l’internet et des réseaux, p.64

Reprenant l’argumentaire largement mobilisé lors des discussions autour des textes de la Loppsi et de la proposition de loi socialiste “relative à la neutralité de l’Internet”, Laure de La Raudière et Corinne Erhel préconisent “a minima qu’un moratoire soit observé sur le blocage” et que le recours du juge soit systématique dès que cette procédure est envisagée. Risques de contournement et de surblocage, entrave à la liberté d’expression et de communication: “des arguments sérieux [existent] contre la mise en œuvre de mesures de blocage” plaident les députés, qui déplorent “la pression législative [qui] s’accroît au fil du temps” et qui se traduit en une “hausse de la demande de blocage” (voir p.28). Pourtant, poursuivent-elles, “ce n’est [...] pas parce que le législateur peut imposer des mesures de blocage qu’il le doit”. Difficile d’être plus explicite: la rupture avec les orientations de la Loppsi, qui a évincé la figure judiciaire des procédures de blocage de sites pédo-pornographiques, est nette, ce dont ne se cache pas Corinne Erhel:

C’est clairement une remise en cause de l’article 4 de la Loppsi

Arcep en garde-fou

En marge de ce positionnement politique catégorique, le rapport s’attache aussi à apporter des “réponses pragmatiques” aux problèmes concrets posés par les différentes atteintes à la neutralité. Afin d’en assurer la portée effective, il propose ainsi de l’inscrire dans la loi, en donnant à l’Arcep le rôle de garde-fou: c’est au régulateur des télécoms qu’incomberait la protection du principe et la surveillance des pratiques des opérateurs, avec la possibilité “d’imposer des obligations”. Ainsi si la mise en place des fameux services gérés, ces sites et applications proposés à un prix et une qualité différents par les fournisseurs d’accès à Internet, est admis par le rapport, ils ne doivent cependant pas empiéter sur le réseau Internet, qui doit rester pleinement neutre et offrir une “qualité de service suffisante”.

Qualité dont l’observation entre également dans le giron de l’Arcep, à condition que des outils de mesure, qui “existent”, assurent Laure de La Raudière et Corinne Erhel sur la base des différentes auditions menées, soient instaurés; une mise en branle “contraignante”, concèdent les députés.

Pédagogie et interconnexion

Grande première pour un rapport parlementaire sur Internet, de nombreux experts indépendants, parmi lesquels certains contributeurs d’OWNI, ont été mobilisés pour les auditions liminaires. Parmi eux: Jean-Michel Planche, Olivier Laurelli, ou bien encore Nicolas Guillaume. Une consultation qui confère au rapport une crédibilité qui a tant fait défaut lors des réflexions précédentes, la plus représentative restant l’épique et inénarrable Hadopi. L’apport des experts se ressent particulièrement dans l’effort pédagogique du rapport (voir par exemple “Internet en trente-deux points, qui aborde pèle-mêle paquets IP, protocole BGP et DNS), ainsi que dans la mise en avant, presque inédite pour un travail institutionnel sur la neutralité, de la question de l’interconnexion. Particulièrement prégnante ces derniers temps, avec les contentieux Cogent/Orange en France, Comcast/Level3 aux États-Unis, cette problématique est peu connue des parlementaires, et encore moins du grand public, alors même qu’elle est le parfait reflet de la complexité du réseau et de l’interaction de ses acteurs -qui ne se résument pas simplement au trio FAI, fournisseurs de contenu, internautes.

La neutralité, c'est aussi une affaire de gros tuyaux

Pour la faire courte, les tuyaux du réseau grouillent d’intermédiaires, qui se connectent les uns aux autres. Bien sûr, tout ceci a un coût, qui s’amplifie avec l’accroissement du trafic sur Internet, avec l’inflation du cloud et des pratiques de streaming, particulièrement vidéo. Sa répartition est donc âprement bataillée; les FAI se plaignant d’en supporter l’intégralité et appelant les sites à participer davantage, qui rétorquent de leur côté déjà financer les tuyaux. Au milieu, des intermédiaires facilitent le transport des informations, moyennant aussi quelques investissements. Et en bout de course, des consommateurs payent leur accès à Internet aux FAI, sans que ce montant soit relié à leur consommation réelle – du moins en France.

Pour répondre à ces enjeux économiques, le rapport préconise tout d’abord de “mener des investigations approfondies sur les marchés liés au réseau internet et les services gérés” (proposition n°8), pour lever l’opacité qui fait office de règle dans ce milieu -la question des coûts d’investissement dans les infrastructures étant toujours soigneusement esquivées lors des différentes séances de réflexion. Il propose également de réfléchir à la piste d’une “terminaison d’appel data au niveau européen” (proposition n°9), basée sur le modèle d’une terminaison d’appel classique, et qui consisterait à davantage associer les fournisseurs de contenu au financement des coûts du réseau:

[...] un mécanisme par lequel les opérateurs induisant le trafic paieraient aux fournisseurs d’accès à internet un montant dépendant de la partie asymétrique du trafic échangé et couvrant les coûts incrémentaux qu’elle engendre.

Difficile de saisir les applications concrètes d’un tel dispositif. Mais à la question d’un journaliste demandant si cela voulait dire que Google allait verser plus dans la poche des FAI, la réponse des députés, bien qu’entourée de précautions, est bel et bien “oui”. On comprend mieux pourquoi les fournisseurs de contenu, ou “inducteurs de trafic”, affichent leur réticence face à un tel système.

Et maintenant ?

Pour assurer l’efficacité d’une terminaison d’appel data, reste à la Commission européenne de s’emparer du sujet. Ce qui n’est apparemment pas gagné, vu les dernières positions de l’institution sur la neutralité des réseaux, dont la publication, attendue initialement fin 2010, n’a de cesse d’être reportée.

Pas ou peu de soutien donc du côté de Bruxelles, et il y a fort à parier que l’adhésion nationale fasse aussi cruellement défaut. D’un point de vue formel déjà: le calendrier parlementaire est bouché jusqu’à la fin de la mandature actuelle. Seul créneau disponible: décembre; si Laure de La Raudière dit vouloir déposer une proposition de loi d’ici là, elle avoue néanmoins que sa prise en compte, à des échéances aussi rapprochées de la présidentielle, semble difficile. Les deux députés ne se leurrent d’ailleurs pas sur la portée de leur document: “c’est avant tout une base de travail”, affirment-elles de concert. Autrement dit, un socle de réflexions qui sera certainement exploité à moyen ou long-terme.

Sur le fond, le jeu paraît tout aussi difficile, du moins du côté de la majorité. Laure de la Raudière, également Secrétaire nationale au Numérique à l’UMP, va devoir la jouer fine pour accorder son parti avec sa conception de la neutralité. Comment concilier cet Internet “neutre et universel” avec l’ambition affichée, pour reprendre la formule en vogue, de “civiliser Internet” ?

On souhaite bon courage à la député.


Illustrations CC FlickR par Taramisu, erikso

Lire les autres articles de notre dossier :

Hack the CNN /-)

L’Élysée drague le numérique

Illustration Flickr Attribution jonny2love

Une Marion Boucharlat à partir de Alex No Logo, téléchargez-la /-)

]]>
http://owni.fr/2011/04/14/neutralite-internet-rapport-de-la-raudiere-neutre-universel/feed/ 15
[App] L’affaire du Mediator racontée à ceux qui ont loupé le début http://owni.fr/2011/03/09/affaire-du-mediator-racontee-a-ceux-qui-ont-loupe-le-debut/ http://owni.fr/2011/03/09/affaire-du-mediator-racontee-a-ceux-qui-ont-loupe-le-debut/#comments Wed, 09 Mar 2011 14:00:32 +0000 Sophie Verney-Caillat http://owni.fr/?p=50491 Stupéfaits. Même ceux qui sont au plus près du dossier n’en reviennent toujours pas de ce qu’ils ont découvert dans le rapport d’enquête de l’Inspection générale des affaires sociales (IGAS) rendu le 15 janvier. Sans mâcher ses mots, il dépeint la faillite d’un système. Celui qui consiste normalement à autoriser et rembourser des médicaments utiles et pas dangereux, à surveiller ses effets secondaires et à les retirer si besoin.

Le fait que le Mediator soit resté sur le marché pendant 35 ans alors qu’il n’aurait jamais du être autorisé et qu’il ait fait des centaines, voire des milliers de victimes, n’est pas un scandale isolé. D’abord parce qu’il n’est pas le premier du genre. Ensuite parce que les enseignements du passé n’ont pas été tirés. Servier a réussi à « anesthésier » les acteurs de la chaîne du médicament, écrit l’IGAS, ce qui fait que « le doute profite à la firme, pas au malade ».

« Une bureaucratie sanitaire »

Premier sur le banc des accusés, le laboratoire qui devra répondre devant la justice de « tromperie aggravée » et « mise en danger de la vie d’autrui ». Mais derrière, ce sont tous les experts employés tantôt par l’administration tantôt par les labos qui sont en cause.

L’Afssaps est apparue comme une bureaucratie sanitaire, où personne n’a pu avoir un raisonnement pharmacologique clairvoyant. Une structure lourde, lente, peu réactive, figée”, écrit encore l’IGAS.

Aujourd’hui, les uns et les autres, vont déplorer ce qui aurait du être fait, comme le professeur Jean-Michel Alexandre, ancien directeur de l’évaluation de l’Afssaps, qui déclare devant la mission d’information de l’Assemblée nationale que pour le Mediator, « l’efficacité n’a jamais été suffisamment prouvée » et estime que les mises sur le marché datant d’avant les commissions d’autorisation de mise sur le marché (AMM) en 1978 manquent de crédibilité ».

Peut-être, mais une fois sur le marché, il aura fallu attendre des décennies pour que les preuves, certaines, de la dangerosité du Mediator soient établies et qu’enfin le médicament soit interdit.

Entre temps, cinq millions de personnes en ont consommé. L’administration ne s’est donné aucun moyen de suivre les effets secondaires relatés, et la peur d’éventuels contentieux a conduit chaque responsable du système à préférer laisser le médicament sur le marché.

Comment cela a-t-il été possible ? Notre application revient sur toutes les étapes et vous aide à imaginer ce qui doit être réformé.

]]>
http://owni.fr/2011/03/09/affaire-du-mediator-racontee-a-ceux-qui-ont-loupe-le-debut/feed/ 10
Spotify : bienvenue au paradis (fiscal) http://owni.fr/2010/11/29/spotify-bienvenue-au-paradis-fiscal/ http://owni.fr/2010/11/29/spotify-bienvenue-au-paradis-fiscal/#comments Mon, 29 Nov 2010 16:54:16 +0000 Philippe Astor http://owni.fr/?p=28458 Philippe Astor aka @makno analyse ici la situation fiscale de Spotify, cette “nouvelle” plateforme dont tout le monde suit l’évolution du modèle de près. Il livre une enquête de fond révélant l’absurdité du système fiscal français concernant les secteurs technologiques.

La publication de ses résultats pour l’année 2009 par la filiale anglaise de Spotify, Spotify Ltd, m’a incité à mener une petite investigation sur Internet, qui m’a permis de mettre à jour un drôle de montage, dont l’optimisation fiscale ne fait aucun doute.

Après avoir parcouru de nombreux articles de médias étrangers sur les résultats de Spotify Ltd en Angleterre, le doute persistait, dans mon esprit, sur leur véritable périmètre. Je me suis donc rendu sur le site de Companies House (registre du commerce britannique) pour commander le rapport annuel 2009 de Spotify Ltd. Après lecture, il apparaît que ces résultats concernent l’ensemble des activités commerciales de la plateforme de streaming en Europe (publicité et abonnement), qui a enregistré une perte de nette de £16,6 millions en 2009 (19,6 M€), pour un chiffre d’affaires de £11,3 millions (13,3 M€).

Il apparaît également que les filiales de Spotify dans les autres pays européens, dont Spotify France SAS, ne sont que des succursales commissionnées par Spotify Ltd sur la vente de publicité : de simples régies publicitaires, en somme, qui ne déclarent certainement, en terme de chiffre d’affaires, que les commissions perçues (de l’ordre de 30 % à 40 % des ventes pour les régies Internet en général, mais rien ne dit que le taux de commission des succursales de Spotify soit aussi élevé), et non le chiffre d’affaires publicitaire réel de Spotify en France.

Le compte de résultat simplifié de Spotify France SAS, visible sur Societe.com, fait état d’un résultat net de 2000 € en 2009, pour un chiffre d’affaires de 265 K€ réalisé à 100 % à l’export, ce qui tendrait à confirmer que cette filiale se contente de facturer des prestations de régie publicitaire à Spotify Ltd, qui doit donc facturer elle-même directement les annonceurs recrutés en France depuis le Royaume Uni, avec des contraintes fiscales (taux de TVA et d’imposition sur les bénéfices des sociétés) qui ne sont évidemment pas les mêmes.

Délocalisation fiscale

Cette pratique de “délocalisation fiscale” des revenus des sociétés Internet est malheureusement assez courante (pour ne pas dire qu’elle constitue la règle), et le le fisc français est certainement rompu au calcul du manque à gagner pour l’État français. C’est ce qu’on essaie notamment de contrer avec la « taxe Google », adoptée par les sénateurs cette semaine, comme s’il suffisait de pisser dans un violon.

Mon investigation ne s’est pas arrêtée là dans la mesure où autre chose me titillait encore. Je me rappelais, en effet, avoir lu il y a déjà un petit moment un article de Paidcontent, dont je n’ai pas retrouvé la trace de suite, sur les résultats de Spotify AB en Suède. De mémoire, il faisait état de pertes relativement substantielles en 2008 et dressait un profil financier de cette société qui ne cadre pas avec celui d’une simple régie publicitaire comme Spotify France SAS.

La question que je me posais alors était toute bête : pouvais-je considérer, oui ou non, que les résultats publiés par Spotify Ltd pour l’année 2009 englobaient ceux de l’exploitation du service (publicité et abonnement) en Suède ? Afin d’en avoir le cœur net, je me suis rendu sur le site du registre du commerce suédois en quête du dernier rapport annuel de Spotify AB, ne serait-ce que pour savoir quelle était la nature de son activité.

Quelle ne fut pas ma surprise de constater que cette entreprise a dégagé, en 2009, un résultat net positif de 14,1 million de SEK (1,5 M€), pour un chiffre d’affaires de 90,3 millions de SEK (9,6 M€). Se pouvait-il qu’un service de streaming comme Spotify soit déjà rentable en Suède ? Voilà qui valait le coup d’être creusé ! Mais après avoir passé plus de deux heures à éplucher ce rapport rédigé en Suédois avec l’aide de Google Traduction, j’ai malheureusement dû me rendre à l’évidence : il ne m’apporterait pas la réponse escomptée.

En passant par l’Angleterre

C’est en retrouvant l’article de Paidcontent dont j’avais perdu la trace, que j’ai finalement pu mettre un terme à mon interrogation. Il précise en effet que Spotify AB, en Suède, regroupe toutes les activités de recherche & développement de Spotify, Spotify Ltd regroupant bien, pour sa part, toutes les activités commerciales du groupe en Europe, quelque soit le territoire où le service de streaming musical est délivré. Cela vaut pour la vente de publicité, par l’intermédiaire de régies implantées localement qu’elle commissionne, mais aussi pour les abonnements, dont les revenus échappent aussi au fisc local.

Les conditions d’utilisation du service établissent bien une relation contractuelle entre l’utilisateur et Spotify Ltd, qu’il soit abonné ou non, et quelque soit le pays dans lequel il se trouve. Par ailleurs, le nom de domaine Spotify.com appartient à cette entité, et tous les URL localisés de Spotify, de type Spotify.fr ou Spotify.se, renvoient vers ce domaine, à une adresse de type Spotify.com/fr/ ou Spotify.com/se/.

On apprend par ailleurs, dans le rapport annuel de Spotify AB, que c’est une filiale à 100 % d’une holding baptisée Spotify Technology SA et enregistrée depuis 2006 au Luxembourg. Pressé de dérouler jusqu’au bout le fil de mon investigation, je commandais illico, sur le site du registre du commerce et des sociétés de ce vénérable petit pays, le dernier rapport annuel de cette holding.

Spotify Technology SA, la luxembourgeoise, qui a déclaré un chiffre d’affaires de 56 K€ en 2009 et une perte nette de 558 K€, est une holding regroupant cinq filiales détenues à 100 %. Parmi elles figurent Spotify USA LLC, société “dormante” enregistrée aux Etats-Unis ; Spotify AB, basée en Suède ; et Spotify Ltd au Royaume Uni, dont dépendent manifestement les régies publicitaires ouvertes dans plusieurs pays européens. Mais on trouve aussi la référence à deux autres filiales détenues à 100 % : Spotify Technology Holding Ltd et Spotify Technology Sales Ltd, toutes deux enregistrées à… Chypre!

Impuissance politique

Inutile de m’étendre sur la nature “paradisiaque” de la fiscalité chypriote. Ces deux sociétés sont bien enregistrées là-bas, et le rôle qu’elles s’apprêtent à jouer dans l’évasion des bénéfices éventuels de la start-up ne fait aucun doute.

On pourrait crier au loup, jeter la pierre à Spotify, comme à Google ou Apple, ou bien se réjouir qu’un acteur européen ne s’en laisse pas conter et se donne les moyens de jouer dans la cour des grands. Je préfère, pour ma part, renvoyer la balle dans le camp des pouvoirs publics européens, et les mettre face à leur impuissance à réduire, jusque là, les fortes distorsions de concurrence et la captation de valeur indue que tout cela entraîne. A quand un moratoire sur une TVA réduite et harmonisée pour le e-commerce partout en Europe ? Quant aux problèmes de délocalisation des bénéfices, il faudrait déjà avoir le courage politique de balayer devant notre porte (que certains grands groupes français du CAC40 ne se sentent surtout pas visés).

Article initialement publié sur: ZDNet.fr

Crédits photos CC flickr: jfournier; Kazaa; Neesflin

]]>
http://owni.fr/2010/11/29/spotify-bienvenue-au-paradis-fiscal/feed/ 4
Welcome to the Pédogone http://owni.fr/2010/09/08/welcome-to-the-pedogone/ http://owni.fr/2010/09/08/welcome-to-the-pedogone/#comments Wed, 08 Sep 2010 16:09:02 +0000 Olivier Tesquet http://owni.fr/?p=27501 Le 23 juillet dernier, le Département de la Défense a publié le Flicker Project, un rapport de 94 pages, qui révèle que 264 employés du Pentagone ont acheté et téléchargé de la pornographie infantile en utilisant l’ordinateur mis à leur disposition par le gouvernement. Alors oui, on pourra rappeler que les gradés en uniforme sont loin d’avoir le monopole de la pédopornographie. On pourra aussi rappeler que le DoD recense pas moins de 700 000 employés civils, et le double de militaires, ce qui ramène le chiffre à un infinitésimal 0,01257%. Sans être à la décimale près, ce mini-scandale nimbé de mystères, exhumé par le Boston Globe (archive payante) pose une question douloureuse: celle des usages d’Internet dans un monde aussi normé que celui des bureaux mélaminés du Pentagone.

L’enquête, diligentée par le DCIS (l’inspection générale du Département de la Défense) en 2002, révèle qu’au moins 30 employés ont fait l’objet d’une enquête individuelle au cours des huit dernières années. Pire, elle met en lumière des cas particulièrement sensibles. Ainsi, 9 des individus incriminés bénéficieraient d’une accréditation Top Secret / SCI (Sensitive Compartmented Information). Le quotidien bostonien évoque notamment les cas de deux employés de la National Security Agency, la très secrète agence de renseignements, et d’un chef de programme du DARPA, le département high-tech de l’armée.

Silence ou transparence?

Avant d’être autorisés à consulter des documents classifiés, les agents du Pentagone doivent répondre à un questionnaire poussé, l’ESPQ, sigle de l’Electronic Security Personal Questionnaire. Dans pas moins de 43 modules, les aspirants doivent décrire leur activité professionnelle des sept dernières années, égréner leurs domiciles successifs sur le sol américain, donner les noms et coordonnées des “trois personnes qui [les] connaissent le mieux”, détailler leur consommation de drogues depuis l’âge de 16 ans, ou encore leur affiliation avec une “organisation dédiée au renversement par la violence du gouvernement américain”. Si la liberté d’association est garantie par la constitution, le droit de prescription n’existe pas aux Etats-Unis. Voilà comment vous vous retrouvez à confesser votre passé de Weatherman ou de Black Panther.

En dépit de ce filtre supposément efficace parce qu’il est intrusif, il semblerait que quelques moutons noirs aient réussi à contourner les pare-feux et autres chevaux de frise mis en place par l’administration pour se prémunir contre les candidats “inadaptés”. Il faut dire qu’à Washington D.C., si les officiels montrent chaque jour un peu plus leur appétence pour le web et ses stratégies, ils font pour l’instant peu de cas des accusations qui planent sur certains de leurs subordonnés. “En raison de la nature du projet et de la nécessité de concentrer les moyens sur d’autres priorités du DCIS, peut-on lire dans le rapport, ce projet est considéré clos.”


On imagine aisément la gêne du Pentagone face à ces accusations. Par leur comportement, les militaires ciblés pourraient devenir particulièrement perméables au chantage, surtout ceux disposant d’un accès privilégié à des informations confidentielles. Dans ces conditions, aux yeux du DoD, le silence est visiblement préférable à la transparence. Pourtant, il a déjà su faire étalage d’un zèle à la limite de ses prérogatives, en traînant devant une cour martiale Billy Miller, un jeune soldat déployé en Afghanistan, au mois de janvier. Le motif? Il possédait sur son ordinateur la photographie d’une de ses petites cousines, une fillette de 4 ans posant en maillot de bain. Le cliché avait été envoyé par sa mère, pour “apaiser son mal du pays”.

5 millions de PC pour l’armée

Dans un rapport de 2007, le Department of Defense Personal Access to The Internet (PDF), les autorités militaires évoquaient leur stratégie, notamment le fait qu’elles étaient “favorables aux réseaux sociaux, bons pour le moral des troupes déployées en Afghanistan et en Irak”. Elles étaient tellement bienveillantes qu’elles venaient même de créer 650 unités MWRNET, des cybercafés “uniquement dédiés à la détente”, pour un coût opérationnel de 48 millions de dollars.

Aujourd’hui, le parc informatique de l’armée américaine s’élève à 5 millions de machines, et à 12 000 réseaux locaux. Devant ce chiffre, qui croît d’année en année, une seule obsession guide le Pentagone: l’optimisation de la bande passante. En ce sens, il a restreint plusieurs sites de streaming audio et vidéo, parmi lesquels YouTube (rien que ça), mais aussi Myspace, MTV ou Stupidvideos.com. Et en cas de dommage collatéral (l’argument numéro un des contempteurs du filtrage), le modus operandi est limpide… Le site bloqué est restauré.

Addendum: Depuis 2000, le Children’s Internet Protection Act (CIPA) requiert des écoles et des bibliothèques américains qu’elles installent des logiciels de filtrage pour protéger les enfants. En 2006, un député a tenté de déposer un amendement, le Deleting Online Predators Act (DOPA). Toujours examiné par la FCC, l’agence de régulation des télécoms, il voudrait étendre le filtrage à tous les réseaux sociaux et autres chat rooms. Ca vous rappelle la Loppsi 2? Ca montre surtout la schizophrénie américaine en matière de sécurité informatique.

Crédits photo Flickr CC par gregwest98, Laughing Squid

]]>
http://owni.fr/2010/09/08/welcome-to-the-pedogone/feed/ 16
Journalisme : il faut bouger! (enfin un tout petit peu) http://owni.fr/2010/07/13/journalisme-il-faut-bouger-enfin-un-tout-petit-peu/ http://owni.fr/2010/07/13/journalisme-il-faut-bouger-enfin-un-tout-petit-peu/#comments Tue, 13 Jul 2010 16:12:12 +0000 Erwann Gaucher http://owni.fr/?p=21895

Le gouvernement avait commandé un rapport sur la formation des journalistes et les critères de délivrance de la carte de presse. Denis Jeambar, Bruno Magliuoli et René Sylvestre l’ont remis… hélas !
Une malédiction planerait-elle sur les rapports commandés par les gouvernements ? Ceux à qui l’on demande d’apporter leur expertise sur un sujet qu’ils sont censés connaître sont-il condamnés à rendre des documents pour le moins décevants, pour ne pas dire pire ? Pour examiner ” les questions de formation aux métiers du journalisme “, le gouvernement avait réuni un trio censé savoir de quoi il allait parler : Denis Jeambar, ancien directeur de L’Express, René Sylvestre, fondateur du groupe L’Etudiant et Bruno Magliulo, inspecteur académique honoraire, auteur de nombreux rapport sur l’orientation.

Le résultat ? Découvrez-le par vous même sous ce billet, en le feuilletant ou en le téléchargeant. À peine plus de sept pages censées faire le tour de cette large question, et une préconisation tellement convenue qu’on la croirait sortie d’un autre rapport sur n’importe quel autre sujet : l’organisation d’une conférence des métiers du journalisme… Dommage que les “états généraux de la presse” aient déjà été utilisés, sinon, on y avait droit !

Sept heures de réflexion tous les deux ans pour répondre à tous les problèmes de la presse !

Pour trouver toutes les réponses aux nombreuses questions qui se posent dans un métier en pleine mutation, nos experts proposent donc une solution aussi révolutionnaire que prometteuse : une conférence biennale. Et si l’on décortique la proposition, on passe du sourire légèrement ironique à la consternation.
Un rapport préconise de changer les  critères de délivrance de la   carte de presse“En vérité, il serait plus judicieux d’en faire un événement biennal, deux années laissant un temps d’observation plus pertinent pour vérifier la réalité des changements dans la profession et engager des réformes profondes, validées par des périodes d’expérimentation” écrivent nos trois experts. Vous avez aimé la biennale des antiquaires ? Vous adorerez celle des métiers du journalisme, qui ne vont pas tarder à rejoindre les commodes Louis XVI au rang de merveilles anciennes et rares.
Et Denis Jeambar, René Sylvestre et Bruno Magliulo détaillent le programme de cette grande journée qui doit “se tenir à Paris (la maison de la Chimie nous semble bien adaptée), pour réunir les principaux acteurs ” [car on le sait bien, le vrai journalisme ne se fait qu'à Paris, pas dans ces centaines de journaux régionaux qui ont le mauvais goût d'être installés au-delà du périphérique]. Sept heures de conférences et de débats, rien que ça ! Sept heures tous les deux ans pour enfin réformer ce métier de journalisme et trouver la martingale qui permettra de mieux former les jeunes journalistes. Diantre, cela doit bien suffire.

La révolution des nouvelles technologies ? 1 h 15 de débats et c’est plié, bien sûr…

La preuve que les auteurs de ce précieux rapport ont pris la mesure de l’enjeu, ils prévoient de consacrer rien moins que 1 h 15 de débats sur “l’impact des nouvelles technologies sur différents métiers : secrétariat de rédaction, révision, maquette, photo”. Cela doit bien suffire pour comprendre ce qui arrive, trouver des solutions, inventer une nouvelle façon d’être journaliste et en organiser l’apprentissage non ? Au pire, on se revoit deux ans après, tout cela n’aura guère changé. Souvenez-vous de 2008, rien n’a bougé depuis !
Et n’attendez pas de révolution sur la forme de cette fameuse journée, il est bien entendu que tout cela conservera le bon vieux système de conférences données par deux ou trois personnes au bon peuple des journalistes avides de la bonne parole.
Visiblement, nos experts ont tout compris de la révolution qui secoue aujourd’hui les rédactions du monde entier, avec ses aspects participatifs et communautaires…

Une commission pour faire la part entre bon et mauvais journalisme

Pour faire bonne mesure, Denis Jeambar, René Sylvestre et Bruno Magliulo souhaitent également réformer la délivrance de la fameuse carte de presse. Doucement mais sûrement, ils introduisent la fameuse idée d’un contrôle des qualités professionnelles de celles et ceux qui y prétendent : “il nous paraît très important de revoir le processus de délivrance de la carte en exigeant une validation professionnelle qui ne se réduise pas à la question des revenus. Une commission de la carte repensée, renforcée, devenant en quelque sorte une commission des métiers du journalisme, ne devrait-elle pas servir aussi d’instance de médiation sur les pratique journalistiques ?” En clair : on change le nom de la commission (ça, c’est pour justifier le rapport) et on lui donne le pouvoir de trancher entre le bon et le mauvais journalisme.

Sur quels critères ? La-dessus, nos experts restent d’une discrétion prudente puisqu’il savent bien que c’est tout le problème. Qui peut juger d’une bonne ou d’une mauvais pratique journalistique ? Qui peut, dans l’affaire Woerth-Bettencourt, dire si l’équipe de Mediapart a fait ou non du bon journalisme ?

Quant au cœur du rapport qui leur a été commandé, la formation aux métiers du journalisme, Denis Jeambar, René Sylvestre et Bruno Magliulo font là encore preuve d’une invention et d’une capacité à prendre des positions nouvelles et radicales, quitte à fâcher : “Nous suggérons que la CNPEJ évolue dans le sens qui pourrait s’inspirer du “modèle CTI” [Commission du Titre d'Ingénieur, NDLR] pour devenir une institution plus représentative et disposant de larges pouvoirs”. Que de suggestions et de conditionnel ! Un fonctionnaire de Bercy proposant que le salaire du président de la République soit divisé par dix ne prendrait pas plus de précautions de style…

Un rapport qui ne dit rien sur par grand chose…

Voilà, c’est avec ce genre de rapport que le journalisme doit trouver un nouveau souffle. Alors que la presse française crève de ne pas innover, de mettre tellement de temps à s’adapter, à changer le rythme de ses process de travail, à comprendre un monde qui est en mutation perpétuelle, les experts expliquent qu’en se réunissant une journée tous les deux ans, on trouvera des solutions.

Rien sur la difficultés des médias à dégager les moyens de la recherche, du développement et de l’innovation qui pourraient pourtant leur permettre de reprendre la main sur les pure-players techniques.
Rien sur les nouvelles formes de web-journalisme qui émergent ici ou là et qui auraient tout à gagner à être mises en commun, discutées, explorées en profondeur.
Rien sur la difficulté d’accès aux documents publics qui permettraient aux journalistes français de se lancer plus efficacement dans le data-journalisme qui semble être une des attentes du public.
Rien sur les mutation profonde de consommation des médias que Facebook, Twitter et autres ont provoqué et qui ont pour conséquence de changer la façon de produire ces médias.
Rien sur pas grand chose quoi…

Télécharger le rapport [pdf]

Billet initialement publié sur Crossmedia sous le titre “Un rapport préconise de changer les critères de délivrance de la carte de presse”

Image CC Flickr orangeacid

]]>
http://owni.fr/2010/07/13/journalisme-il-faut-bouger-enfin-un-tout-petit-peu/feed/ 6