Intermedia
THE FUTUR OF DIGITAL CONTENTS' DISTRIBUTION
  • Sophie Boudet-Dalbin

    Docteur en sciences de l'information et de la communication (SIC) de l'Université Paris 2 Panthéon-Assas, je travaille sur la distribution des contenus numériques.

    Ma recherche doctorale, pluridisciplinaire, est une étude prospective qui vise à trouver des solutions concrètes pour la distribution des films par Internet, en mesure de dépasser les stéréotypes et de réconcilier les motivations et contraintes des divers acteurs économiques, créateurs, publics internautes et entités nationales.
    ....................................

    Doctor in Information and Communication Sciences at the University Paris 2 Panthéon-Assas, I focus on digital content distribution.

    My PhD, multidisciplinary, aimes at finding concrete solutions for digital distribution of films, that would outreach stereotypes as well as reconcile the motivations and constraints of the various economic actors, creators, audience, Internet users and national entities.


  • Articles taggés avec ‘Net Neutralité’

    13
    10
    2012

    La future régulation mondiale du net entre les mains de l’UIT

    Article publié dans le magazine en ligne d’actualité et d’analyse du monde informatique, PC INpact.


    Vous n’en avez certainement pas encore entendu parler, mais un événement majeur pour la régulation internationale des télécommunications aura lieu à la fin de l’année.

    Il s’agit de la Conférence mondiale sur les télécommunications internationales, CMTI (en anglais World Conference on International Telecommunications, ou WCIT prononcé « Wickit »), qui se tiendra à Dubaï du 3 au 14 décembre 2012. Un sujet tout aussi complexe que passionnant : juste la future régulation mondiale d’Internet !

    Organisée par l’Union internationale des télécommunications (UIT), cette grand-messe des télécoms est cruciale, car elle va réviser le Règlement des télécommunications internationales (RTI, ne soyons pas avares de sigles), traité global mettant en place les principes généraux régissant l’établissement et l’exploitation des télécommunications internationales. Le but : faciliter l’interopérabilité des réseaux et l’échange de trafic à travers les frontières.

    Dans un monde interconnecté où les technologies de l’information et de la communication sont au cœur de presque toutes nos activités, le rôle joué par l’UIT est plus décisif que jamais. Mais tandis que l’Union joue un rôle important pour ce qui est de la promotion du déploiement du réseau large bande, de l’élaboration des normes techniques, de la gestion du spectre à l’échelle mondiale et de la négociation des cadres internationaux en matière de cybersécurité, la question se pose toutefois de la légitimité d’un élargissement de son mandat pour inclure la gouvernance et la régulation mondiale d’Internet.

    L’UIT : cadre mondial contraignant pour les télécommunications internationales

    Retour en arrière sur l’UIT. Fondée à Paris en 1865, sous le nom d’Union télégraphique internationale, elle porte son nom actuel depuis 1932. En 1947, elle devient l’une des institutions spécialisées des Nations unies, et travaille en partenariat avec les secteurs public et privé. Entre la toute première Convention signée en 1865, et les Constitution et Convention actuelles, l’Union est passée de 20 membres à 193 États Membres et plus de 700 entités du secteur privé et établissements universitaires Membres de secteur.

    L’importance de l’UIT repose essentiellement sur la force de ses textes fondamentaux, qui établissent un cadre mondial contraignant pour les télécommunications internationales dont la portée considérable vise à promouvoir les télécommunications. Pour ce faire, l’UIT se compose de trois secteurs : celui des radiocommunications (UIT-R), celui de la normalisation des télécommunications (UIT-T) et celui du développement des télécommunications (UIT-D). Les travaux de chacun des trois secteurs de l’Union trouvent leur aboutissement dans les conférences ou réunions au cours desquelles les Membres négocient les accords qui servent de base à l’exploitation des services de télécommunication dans le monde.

    Habilitées à réviser le Règlement des télécommunications internationales, les Conférences mondiales des télécommunications internationales sont, pour leur part, convoquées à la demande de la Conférence de plénipotentiaires. Organe suprême de l’Union, celle-ci est composée de délégations représentant les États Membres, et convoquée tous les quatre ans pour définir les grandes orientations stratégiques de l’organisation, déterminer sa structure et ses activités.

    Après avoir examiné un certain nombre de contributions présentées par les États Membres, la Conférence de plénipotentiaires de l’UIT (Antalya, 2006) a adopté la Résolution 146, par laquelle elle a décidé qu’il faudrait procéder à un examen du Règlement des télécommunications internationales. Et c’est lors de la dernière Conférence de plénipotentiaires de l’UIT (Guadalajara, 2010) qu’il a été décidé dans la Résolution 171 « d’examiner et d’étudier toutes les propositions de révision du RTI » lors de la CMTI de 2012.

    Contexte : première révision du traité des Nations unies depuis 24 ans

    Initialement, cette agence intergouvernementale était dédiée à la télégraphie, puis à la gestion du spectre des fréquences radioélectriques. Les industries des télécommunications étaient alors établies en monopoles étatiques, et les services concernés étaient plutôt les échanges voix que data. Les coûts des télécommunications internationales, pour appeler par exemple de la France à la Tunisie, étaient décidés directement entre États Membres, entre monopoles étatiques. Et l’UIT servait de forum pour négocier ces tarifs.

    Puis, dès le début des années 90, on assiste à un phénomène de privatisation et de libéralisation des marchés des télécoms dans la plupart des pays, en parallèle du développement d’Internet, de la croissance exponentielle du volume du trafic, et de l’émergence de nouveaux intermédiaires techniques. Se pose alors la question de la légitimité d’un traité qui établit les relations entre gouvernements, à l’heure où ces accords se passent désormais entre acteurs privés.

    Mais plutôt que d’annuler le règlement intergouvernemental, il est toutefois décidé que celui-ci sera révisé. L’objectif déclaré de la conférence : soutenir une croissance équitable et un développement durable des réseaux, en donnant notamment plus de voie aux pays en voie de développement.

    Les 193 États Membres de l’UIT procéderont donc en décembre prochain à la première révision du traité depuis son établissement à Melbourne (Australie) en 1988, il n’y a pas moins de 24 ans.

    Enjeux politiques : préserver un Internet ouvert sans entraver le marché

    La révision du traité est un événement de premier plan. Les enjeux sont tout d’abord politiques. Tandis qu’il s’agit pour les acteurs économiques et la plupart des États Membres de l’UIT de s’assurer de la pérennité du modèle pro-concurrentiel qui a prévalu jusque-là, histoire qu’aucune règle contraignante ne vienne entraver leurs pratiques et acquis, certains amendements proposés pourraient viser « à étendre le mandat de l’UIT à certaines problématiques comme l’adressage et le routage IP ou la coopération en matière de cybercrime, et ainsi saper la gouvernance globale d’Internet » prévient La Quadrature du Net.

    « Les modifications du RTI pourraient entraîner des changements dans l’architecture, les opérations, le contenu et la sécurité d’Internet » s’inquiète l’ISOC. La réglementation des nouvelles technologies serait ainsi susceptible d’ « ouvrir la voie à la censure grâce à des technologies comme le filtrage DNS qui fragmentent l’Internet mondial ». La protection des données et la cyber sécurité sont également en ligne de mire. Et lorsque l’on sait que des pays comme la Russie, la Chine, l’Égypte ou l’Algérie figurent parmi les États Membres qui demandent la prise en compte de ces sujets dans le nouveau Règlement, cela ne semble pas de bon augure.

    « Les inquiétudes grandissent quant au fait que certains États Membres s’efforceront d’affirmer l’autorité réglementaire sur Internet par le biais de l’UIT, et que de tels États pourraient utiliser une telle autorité pour adopter des politiques dommageables pour le développement et la portée mondiale d’Internet » souligne le Centre pour la Démocratie et la Technologie (CDT) dans son analyse de la contribution de l’ETNO, le lobby des gros opérateurs télécoms européens.

    « Le nouveau traité pourrait conférer aux Nations unies une emprise sans précédent sur Internet. Des douzaines de pays, comme la Russie ou la Chine, sont en train de faire pression pour atteindre ce but avant la fin de l’année » s’inquiétait ainsi Robert M. McDowell, commissaire américain à la Commission fédérale des communications, dans une tribune parue en février 2012 dans le Wall Street Journal.

    Certaines des propositions d’amendement font ainsi débat quant à la gouvernance et au contrôle d’Internet souligne le CDT, notamment dans les domaines suivants :

    • Tarification et interconnexion : l’ETNO, membre sectoriel de l’UIT, a proposé une série de changements radicaux dans le système de peering et d’interconnexion entre les fournisseurs de réseaux IP.
    • Régulation du trafic de routage : l’Égypte et les États arabes ont proposé qu’ « un État Membre a le droit de savoir par où passe son trafic et devrait avoir le droit d’imposer des règles de routage dans ce domaine, à des fins de sécurité et de lutte contre la fraude« . Une proposition similaire a été faite par l’autorité russe en charge des télécommunications, la RCC, soutenue par la Fédération de Russie.
    • Allocation des adresses IPv6 : la Côte d’Ivoire et la Fédération de Russie ont proposé un amendement qui entend confier à l’UIT un rôle dans l’attribution d’une partie des adresses IPv6.
    • Limitations de l’accès et de l’utilisation des télécommunications : la Fédération de Russie et la RCC ont mis en avant une proposition qui impose aux États Membres de veiller à l’accès aux infrastructures de télécommunications, sauf quand elles sont utilisées « à des fins d’ingérence dans les affaires intérieures ou de sape de la souveraineté, de la sécurité nationale, de l’intégrité territoriale et de la sécurité publique dans d’autres États, ou pour divulguer des renseignements de nature délicate ».

    Enjeux économiques : soutenir la capacité d’innovation et la qualité de service

    Les enjeux sont donc principalement politiques. Mais pas seulement. Ils sont également économiques. Pour financer la poursuite du développement de l’Internet mondial, la question de l’interconnexion des divers acteurs sera au cœur de la conférence.

    Face à la croissance de la demande en bande passante et à l’accroissement des coûts d’investissement techniques, les modèles économiques pour un partage équilibré de la valeur entre opérateurs et éditeurs sont remis en question.

    Dans le droit fil du débat technico-économique sur la neutralité du Net, les télécoms font pression pour pouvoir instaurer un Internet à deux vitesses avec une qualité de service minimale garantie, tout en proposant parallèlement des offres payantes premium.

    Pour les fournisseurs de contenus, cela ne va bien sûr pas de soi. Selon l’analyse de Scott Marcus, consultant spécialisé dans les télécommunications, du cabinet WIK Consult GmbH : « (1) Le trafic Internet est certes en hausse, mais le coût d’usage par abonné dans le réseau fixe est relativement constant. (2) Les prix des services à large bande fixes sont stables étant donné que les coûts sont stables. Face à l’augmentation réelle des coûts, les opérateurs réseaux semblent être en mesure d’augmenter les prix en conséquence. (3) L’argument des subventions croisées repose sur la théorie des marchés bifaces, mais cette théorie n’implique pas forcément que les subventions devraient passer des fournisseurs de contenus aux opérateurs réseaux. »

    Toutefois, d’après l’ETNO, le nouveau traité devrait « permettre l’accroissement des revenus grâce à des accords de tarification de la qualité de service de bout en bout et de la valeur des contenus » et autoriser l’instauration de « nouvelles politiques d’interconnexion basées sur la différenciation des critères de qualité de service pour des services et des types de trafic spécifiques (non uniquement pour les « volumes ») ». Dans sa contribution, le lobby des télécoms européen appelle ainsi à un nouvel écosystème d’interconnexion IP, décidé directement entre opérateurs et éditeurs – sans passer par la case régulation – et qui leur permettrait de : (1) fournir des services réseau à forte valeur ajoutée à la fois aux clients finaux, aux acteurs « over the top » et aux fournisseurs de contenu ; (2) projeter la valeur de la livraison du trafic sur les infrastructures de réseau.

    Dans le contexte de la révision du traité de l’ONU, les opérateurs télécoms craignent donc, comme le souligne La Quadrature du Net, « d’être empêchées par les législateurs et les régulateurs, d’établir de tels modèles économiques. L’adoption récente d’une loi dans ce sens aux Pays-Bas, sous la pression de la société civile, montre que les législateurs peuvent décider de protéger effectivement la neutralité du Net, en mettant en place des règles strictes pour lutter contre les pratiques de discrimination du trafic et réglementer les accords commerciaux ».

    Doit-on en avoir peur ?

    À cette question posée par Benoît Tabaka, ancien secrétaire général du Conseil National du Numérique (CNNum), désormais responsable des relations institutionnelles chez Google, et qui modérait mardi 2 octobre 2011 une conférence organisée par l’ASIC sur la conférence de l’UIT, le directeur des affaires institutionnelles de Skype/Microsoft, Jean-Jacques Sahel répondait : « Non, mais certaines propositions pourraient avoir de graves conséquences. »

    Point crucial : « la structure de l’UIT manque de transparence et ne réunit pas tous les acteurs, des paramètres nécessaires pour légiférer sur un média qui a beaucoup d’intervenants différents et qui fonctionne sur une base aussi décentralisée, participative et gérée par les utilisateurs, que ne l’est celle d’Internet », comme le souligne le CDT.

    Prévenant contre le « risque d’un gentleman agreement », Félix Treguer de La Quadrature du Net s’est d’ailleurs inquiété d’une certaine « inertie des pouvoirs publics ». Il sera alors intéressant de voir la réponse prochaine du ministre des Affaires étrangères, suite à la récente question écrite du député UMP Patrice Martin-Lalande « sur les positions que la France compte prendre et défendre au sujet de la gouvernance mondiale d’Internet dans le cadre de la conférence mondiale des télécommunications internationales (CMTI) : Comment le gouvernement a-t-il préparé cette conférence, en lien avec les acteurs nationaux (acteurs privés, société civile, etc.) et nos partenaires européens ? Quels sont les enjeux prioritaires qu’a défini le gouvernement et de quelle manière entend-il faire valoir ses positions dans cette conférence mondiale ? Quel rôle le gouvernement souhaite-t-il voir attribuer à l’UIT dans le cadre de la gouvernance nécessairement « multiacteurs » d’Internet ? Le gouvernement entend-il faire valoir la nécessité d’une nouvelle répartition de la valeur générée par lnternet et proposer les modalités de mise en œuvre de cette nouvelle répartition ? »

    En attendant les réponses à ces questions cruciales, le débat se fait vainement attendre en France alors que la conférence se tient début décembre. On touche pourtant ici à la gouvernance mondiale du Net, à la neutralité d’Internet et à la liberté de communication des citoyens.

    Tags: , , , , , , , ,
    Publié dans FRANCAIS |

    Aucun commentaire

    8
    03
    2012

    Le droit à l’oubli : « la plus grande menace de la prochaine décennie pour la liberté d’expression sur Internet »

    Dans un article publié le 13 février 2012 dans la Stanford Law Review, Jeffrey Rosen explique pourquoi, selon lui, le droit à l’oubli prévu dans la nouvelle réglementation européenne représente « la plus grande menace de la prochaine décennie pour la liberté d’expression sur Internet ».

    Jeffrey Rosen est professeur de droit à l’Université George Washington et rédacteur spécialisé dans les affaires juridiques du très respectable magazine politique américain The New Republic (libéral).

    Avec son autorisation, nous publions ici une traduction de passages choisis, tirés de son article très éclairant sur les différences des visions américaine et européenne, ainsi que sur les enjeux de la nouvelle réglementation européenne en matière de protection des données personnelles.

    Et pour ceux qui voudrons approfondir l’analyse, vous pouvez télécharger ici la version complète de l’article (traduit en français par nos soins).

    Voici donc en substance :

    Fin janvier, la commissaire européenne en charge de la justice, des droits fondamentaux et de la citoyenneté, Viviane Reding a présenté le projet de la Commission européenne pour créer un droit à la vie privée radicalement nouveau : le « droit à l’oubli ». Le droit en question, qui suscite depuis deux ans un vif débat en Europe, a finalement été intégré au sein d’une large révision de la réglementation en matière de protection des données. Tandis que Reding le décrit comme une simple extension des droits existants en matière de protection des données à caractère personnel, ce nouveau droit représente en réalité la plus grande menace de la prochaine décennie pour la liberté d’expression sur Internet. Le droit à l’oubli pourrait astreindre Facebook et Google, par exemple, à payer jusqu’à deux pour cent de leur revenu global s’ils ne parviennent pas à supprimer des photos personnelles que les utilisateurs auraient après coup regretté avoir postées, même si les photos ont déjà été largement distribuées. Si le droit n’est pas défini plus précisément lors de sa promulgation au cours de l’année à venir, cela pourrait provoquer un grave affrontement entre les conceptions européenne et américaine quant au juste équilibre entre vie privée et liberté d’expression, et mener à un Internet bien moins ouvert.

    En théorie, le droit à l’oubli aborde un problème urgent à l’ère du numérique : échapper à son passé sur Internet est devenu très difficile à l’heure où toute photo, mise à jour de statut et tweet vit éternellement dans le cloud. Mais Européens et Américains ont des approches diamétralement opposées en la matière. En Europe, les fondements intellectuels du droit à l’oubli peuvent être trouvés dans la loi française qui reconnaît « le droit à l’oubli », un droit qui autorise un criminel reconnu coupable, après avoir purgé sa peine et s’être réinséré dans la société, à s’opposer à la publication des informations figurant dans son casier judiciaire. Aux Etats-Unis par contre, publier les antécédents criminels d’un individu est protégé par le Premier Amendement, ce qui a permis à Wikipedia de ne pas céder face aux pressions de deux Allemands, qui, reconnus coupables du meurtre d’un acteur célèbre, souhaitaient que soient effacés de la page Wikipedia de l’acteur leurs antécédents criminels. (…)

    Dans un billet posté sur un blog en mars dernier et largement relayé, Peter Fleischer, responsable en charge de la protection de la vie privée chez Google, écrit que le droit à l’oubli débattu en Europe englobe souvent trois catégories distinctes, chacune d’elles représentant peu à peu des menaces de plus en plus grande pour la liberté d’expression. (…)

    La première catégorie est la moins controversée : « Si je poste quelque chose en ligne, ai-je le droit de l’effacer à nouveau ? » Cela concerne les cas où je poste une photo sur Facebook et plus tard change d’avis et veux l’enlever. Etant donné que Facebook et d’autres sites de réseaux sociaux me permettent déjà de faire cela, le fait de créer un droit contraignant dans ce cas est surtout symbolique et complètement acceptable. Ainsi qu’il a été proposé, le droit à l’oubli européen permettrait aussi de faire pression sur Facebook pour qu’il respecte ses propres règles en matière de protection de la vie privée en permettant aux utilisateurs de s’assurer que les photos et autres données ont bien été effacées de ses archives après leur retrait de l’accès public.

    Mais le droit de supprimer les données devient bien plus discutable lorsqu’il implique la deuxième catégorie de Fleischer : « Si je poste quelque chose, et que quelqu’un d’autre le copie et le met en ligne sur son propre site, ai-je le droit de l’effacer ? » Imaginez qu’une adolescente regrette d’avoir posté une image d’elle avec une bouteille de bière sur son propre site et l’efface après coup, pour ensuite découvrir que plusieurs de ses amis ont copié et transféré la photo sur leurs propres sites. Si elle leur demande d’enlever les images, et que ses amis refusent ou ne sont pas joignables, Facebook devrait-il être contraint d’effacer l’image de l’album de ses amis sans le consentement des personnes concernées sur la seule base des déclarations de l’adolescente ? (…)

    Pour finir, il y a la troisième catégorie de Fleischer en matière de demandes de retrait : « Si quelqu’un d’autre poste quelque chose sur moi, ai-je le droit de le supprimer ? » Il s’agit bien sûr de ce qui menace le plus sérieusement la liberté d’expression. La Cour suprême américaine a considéré que les Etats ne peuvent pas édicter de lois entravant la capacité des médias à diffuser des informations véridiques mais embarrassantes (comme le nom d’une victime de viol) tant que les informations ont été obtenues légalement.

    Toutefois, la proposition de réglementation européenne considère de la même façon les demandes de retrait d’information véridiques postées par d’autres et les demandes de retrait de photos que j’ai moi-même postées et ayant été copiées par d’autres : les deux cas de figure sont compris dans la définition des données à caractère personnel entant que « toute information [me] concernant », quelle que soit sa source. Je peux exiger son retrait et la charge, encore une fois, revient au tiers de prouver que cela correspond à l’exception pour une activité journalistique, d’expression artistique ou littéraire. Cela pourrait transformer Google, par exemple, en chef de la censure pour le compte de l’Union européenne, plutôt qu’en plateforme neutre. Et parce qu’il s’agit d’un rôle que Google ne voudra pas jouer, cela pourrait au contraire produire des pages vides à chaque fois qu’un utilisateur européen rentre le nom d’une personne qui se sera opposée à un message désagréable posté sur un blog ou à une mise à jour de statut.

    Bien sûr, il est possible que même si la réglementation européenne donne une définition très large du droit à l’oubli, l’application qui en sera faite soit plus stricte. Les Européens ont une longue tradition pour ce qui est de décréter en théorie un droit à la vie privée abstrait qu’ils n’arrivent ensuite pas à appliquer dans la pratique. Et la réglementation pourrait être précisée au cours de l’année à venir, lorsque le Parlement européen et le Conseil des ministres s’entendront sur les détails. Mais en annonçant la réglementation, Reding a déclaré la vouloir ambiguë afin qu’elle puisse s’ajuster aux nouvelles technologies à venir. « Cette règlementation doit durer 30 ans — elle doit être très claire mais assez imprécise afin que les évolutions des marchés ou de l’opinion publique puisse être prises en compte dans la règlementation » a-t-elle déclaré sur un ton qui ne laisse présager rien de bon. De plus, une fois la réglementation adoptée, elle s’appliquera entant que loi simultanément à travers toute l’Union européenne, et si l’UE se retire de l’accord du Safe Harbor actuellement en vigueur, le cadre européen pourrait être imposé aux entreprises américaines qui font aussi affaires en Europe. Il est difficile d’imaginer que l’Internet qui en résultera sera aussi libre et ouvert qu’il l’est maintenant.

    Tags: , , , , ,
    Publié dans FRANCAIS |

    Aucun commentaire

    12
    07
    2011

    « L’attention s’est focalisée sur la licence globale, sans réfléchir à d’autres modèles alternatifs au financement de la création »

    Image 1

    Interview de Florence Gastaud, déléguée générale, ARP

    22/06/11

    • Concernant l’ARP

    - SBD : Quel est votre bilan concernant l’action de l’ARP pour le développement de l’offre légale de distribution de films en ligne en France ?

    FG : Dès le lendemain du vote de la loi Hadopi, nous avons essayé de nous concentrer sur le développement de l’offre légale, conscients que cette économie ne pouvait émerger qu’à travers la création d’un cadre dynamique.
    Nous travaillons entre autres choses sur la création d’obligations, notamment à travers le décret SMAD, il s’agit de dynamiser le secteur puisque ça oblige les plateformes VoD à investir dans la création cinématographique et à éditorialiser leurs sites. Cela leur permettrait également d’avoir des fenêtres d’exposition des œuvres plus réduites. Sur le territoire français, le décret a décliné les quotas européens et français pour les services de médias audiovisuels à la demande (SMAD). La difficulté de respect de ces quotas d’œuvres françaises par rapport aux œuvres américaines, sur la page d’accueil par exemple, nous apparaît un peu factice dans l’univers numérique.

    - SBD : Quels sont les défis qui demeurent à l’heure actuelle pour les auteurs, réalisateurs et producteurs ? Quel est votre bilan concernant le développement et l’accompagnement de nouveaux modèles de répartition de la valeur pour la distribution des films en ligne ?

    FG : Il y a tout l’aspect économique. La TVA à taux réduit est une véritable exigence que l’ARP a porté au niveau national et européen. La France (le Ministère de la Culture, plus que Bercy) est plutôt favorable à une TVA à 5,50 % des médias culturels, qui pourrait être appliquée par une politique volontariste.
    Les cinéastes prennent conscience de l’ampleur de la VoD, une économie complètement différente de celle du DVD, mais un univers proche de celui de la TV payante avec l’abonnement. Les plateformes VoD sont ainsi placées entre deux secteurs. On ne sait pas encore quelle valeur et quelle rémunération des auteurs cela va générer. L’avantage pour l’ARP est que la VoD est un secteur beaucoup plus transparent que le secteur du DVD puisqu’il y a des remontées de recettes plus visibles, au clic. Mais les tarifs sont bien plus bas, et donc des remontées de recettes bien plus basses. Reste l’enjeu de l’équipement de l’ensemble du territoire, mais les mentalités évoluent et nous pourrons avoir une véritable vision de la situation d’ici trois à quatre ans. À mon avis, la VoD ne remplacera pas intégralement l’économie du DVD.
    Nous travaillons à ce qu’il y ait une rémunération minimum. Un MG permettrait d’assurer les ayants droit contre les prix prédateurs. Une rémunération minimum est prévue, mais l’ARP regrette qu’il n’y ait pas encore de décret d’application. À l’intérieur de la formule d’abonnement, on pourrait appréhender la rémunération de chaque film qui a été consommé, puisque même à l’intérieur de l’abonnement on sait flécher quelles œuvres ont été lues. C’est beaucoup plus transparent que la recette DVD. Pour l’instant ce sont des acteurs connus et identifiés, sans successions de marges prises par des gros distributeurs de DVD. Il y a moins d’intermédiaires que dans le marché du DVD physique.

    - SBD : Pouvez-vous m’expliquer la position de l’ARP concernant les modèles de type licence globale ?

    FG : Nous pensons qu’il y a d’autres solutions. Le débat sur Hadopi s’est résumé à l’opposition des créateurs sur ce sujet. L’attention s’est focalisée sur la licence globale, sans réfléchir à d’autres modèles alternatifs au financement de la création. Le débat a donc été un peu tronqué. Aujourd’hui, même les teneurs de la licence globale reviennent sur cette idée. Le modèle de la licence globale est un système compliqué pour ce qui est d’une répartition exacte. Par ailleurs, cela fait payer ceux qui ne consomment pas. Il s’agissait d’une bonne intention mais très loin de la connaissance économique de chaque secteur (cinéma, musique et livre).
    Et, on a vu apparaître d’autres schémas, notamment à travers le débat sur la NN, qui viennent piocher quelques idées à la licence globale. Comme modèles alternatifs, il y a des réflexions autour de la bande passante. Ceux qui utilisent beaucoup la bande passante ne devraient-ils pas s’acquitter d’obligations plus élevées ? Il s’agit autant des consommateurs en bout de chaîne que des intermédiaires qui mettent à disposition du contenu. Il y a un problème de répartition entre l’équipement du réseau, les contenus culturels, les créatifs ; et également entre les différents types de contenus.


    • Concernant le téléchargement illégal et la réponse législative

    - SBD : Tandis que nombre d’études affirment que le téléchargement illégal nuit fortement à l’industrie du film, de plus en plus d’études tendent à montrer que le piratage n’affecterait que peu les ventes, voire aurait un effet positif sur la consommation légale des contenus, à mesure que l’offre légale se développe. Quel est votre point de vue sur le sujet ?

    FG : On ne peut pas autoriser le téléchargement illégal. Celui-ci a un impact, peu connu du grand public, sur la chronologie du financement. Les différentes étapes du préfinancement d’un film en amont sont essentielles. Si l’on autorise la distribution illégale, les chaînes n’auront plus intérêt à financer les films. Le téléchargement illégal n’a certes pas vidé les salles, en revanche cela a atteint les ventes à l’international. Dès qu’un contenu a connu un peu de succès, il est disponible partout sur les plateformes illégales. Donc, ces ventes à l’international, qui venaient compléter le financement, ont énormément chuté depuis ces cinq dernières années. Si les Américains veulent faire des sorties day and date, c’est qu’ils estiment que cela vient manger leurs marges sur la vente de DVD.

    - SBD : Quelle est votre évaluation des actions menées par le gouvernement pour lutter contre le téléchargement illégal, notamment à travers la Hadopi ?

    FG : En contrepartie de la Hadopi, le gouvernement s’est engagé à développer l’offre légale. Nous estimons que la deuxième partie du contrat moral que nous avons passé avec le législateur n’a pas été bien remplie. Nous n’avons pas été signataires de l’accord de 2009 sur la chronologie des medias parce que nous estimions que ce n’était pas vraiment une chronologie adéquate pour permettre aux nouveaux acteurs d’être dynamiques et existants. C’est une chronologie qui préserve énormément les acteurs historiques et nous ne remettons pas cela en question. Mais, à notre avis, il s’agissait vraiment de réinventer une place pour les nouveaux acteurs. C’était le deal de la Hadopi et ça n’a pas été fait.

    - SBD : La chronologie des médias vous semble-t-elle adaptée ?

    FG : Tandis que la protection de la fenêtre Canal Plus est acquise pour les SMAD, on peut réfléchir à ceux qui n’ont pas eu de financement de chaînes par exemple. Est-ce qu’ils sont obligés d’être gelés autant que ceux qui ont eu le financement de chaînes ? Nous sommes assez virulents sur ce sujet et essayons de faire avancer les choses.
    Parallèlement on réfléchit à des expérimentations. On se dit que cela pourrait être intéressant de voir dans quelle mesure certains films plus fragiles pourraient presque s’exonérer de cette chronologie, avec une chronologie plus adaptée, pour des films sortis en moins de dix copies par exemple. Pour moi, la dérogation de première fenêtre n’existe pas. C’est une fausse dérogation. Il s’agit plus de laisser la place à l’expérimentation pour essayer de voir comment on pourrait sortir des films avec une chronologie très proche de la sortie salles. Ces films-là bénéficient du petit marketing qu’ils ont au moment de la sortie salles pour rebondir sur la sortie DVD. Par ailleurs, ces films n’ont pas forcément de diffusion en salles sur tout le territoire français. Or, il y a quand même une résonnance de la sortie salles, donc la province pourrait avoir accès à des films qu’ils n’ont pas pu voir sur leurs écrans de cinéma. Cela permettrait également de réguler à plus ou moins long terme la sortie de ces films au cinéma, l’utilité de leur sortie en salles, tout du moins pour les 80 à 100 sorties par an qui sont dans cette économie.
    Concrètement, nous ne pouvons pas dénoncer l’accord sur la chronologie des médias puisque nous ne sommes pas signataires. Aujourd’hui, les différents signataires bougent pas mal. Je pense qu’il peut y avoir une renégociation l’année prochaine. Mais cela peut arriver à tout moment, à partir du moment où quelques syndicats ou représentants dénonceraient l’accord. Celui-ci ne peut pas être étendu par le Ministre à toute la branche puisqu’il faut qu’il y ait une représentativté des acteurs.
    Nous avons également beaucoup d’espoir concernant l’Europe, notamment la politique du plan MEDIA qui peut être le moteur d’une réflexion pour subventionner des expérimentations novatrices sur le territoire européen.


    • Pour conclure

    - SBD : Quels seront selon vous les facteurs clé de succès pour la distribution numérique des films associée à une juste rémunération des artistes ?

    FG : En premier lieu, une bonne éditorialisation. Dans l’ère du tout disponible, il faut quand même cadrer les choses pour créer une bonne ergonomie pour le spectateur. Dans ce sens, le décret SMAD est plutôt une aide pour les œuvres françaises et européennes.
    Ensuite, un bon fléchage des films en fonction des inclinations vers les réseaux sociaux. Le nouvel univers numérique permet de cibler un peu plus les publiques. Il s’agit de créer du buzz autour du film autour de ces communautés. Nous soutenons les initiatives de type Mubi, Festival Scope, MySkreen (pertinent puisqu’il allie le monde linéaire et non linéaire).
    L’arrivée de la TV connectée devrait fusionner les deux mondes, linéaire et délinéarisé. Si c’est bien fait, ce sera une très bonne opportunité pour exposer des œuvres en ligne. L’ARP passe des accords en ce sens avec les éditeurs.

    Tags: , , , , , , , , ,
    Publié dans FRANCAIS |

    Aucun commentaire

    8
    07
    2011

    « L’esprit de la loi Hadopi est bon mais sa mise en œuvre est déplorable »

    olivier-ezratty

    Interview d’Olivier Ezratti, conseiller en stratégies de l’innovation

    01/06/11


    • Concernant l’offre de films en ligne

    - SBD : Dans la multitude des offres disponibles, quels sont selon vous les modèles prédominants pour le contrôle de l’accès au client ?

    OE : Le modèle du payant à la séance demeure prédominant en France. Tandis que les offres d’abonnement de type Netflix, s’imposent aux USA. On constate que la S-VoD a évolué dans le temps. Tandis que les films en première diffusion n’apparaissaient pas dans les catalogues de S-VoD, aujourd’hui, ils commencent à y être disponibles, selon les contrats négociés. Les films en HD demeurent cependant plutôt accessibles à l’acte, étant donné que les droits sont plus élevés comparés à ceux des films de deuxième diffusion, de catalogue.

    - SBD : Quelle place pour les films de long métrage dans les divers offres existantes ?

    OE : La VoD a toujours été axée sur les films, qui restent dominants. Mais le poids des séries est en augmentation constante car celles-ci sont devenues des franchises très populaires et qui plus est addictives.
    Pour ma part, je ne consomme pas de VoD et achète de moins en moins de DVD. J’ai un abonnement à Canal Plus et Canal Sat qui, couplé aux capacités d’enregistrement et de stockage de mon Media Center, me permet de thésauriser suffisamment de contenus. Le guide de programmes me permet d’effectuer une recherche par type de contenu puis de programmer l’enregistrement du contenu sélectionné. Cependant, le coût de l’abonnement à la TV Premium est élevé, avec environ 70 euros par mois pour ma part. La question de l’équilibre budgétaire se pose entre un abonnement TV Premium et l’usage de S-VOD. Le problème étant que les offres de contenu ne sont pas les mêmes. Les amateurs de sports en direct ne peuvent par exemple pas se passer de TV Premium.

    - SBD : Dans le contexte du développement de la TV connectée, quelles sont selon vous les stratégies d’acteurs les plus innovantes?

    OE : Sony a été le premier à adopter Google TV, ce qui était un pari risqué. Les autres constructeurs ont tous plus ou moins adopté les mêmes stratégies, qui évoluent d’année en année, orientées autour du développement d’un portail applicatif s’appuyant en général sur les standards du Web. On constate l’arrivée de la recherche multi-catégories, de fonctions de recommandation, de l’amélioration de l’interface graphique et du développement du choix d’applications.
    Les enjeux pour les chaînes de télévision sont de deux ordres : préserver leur audience ainsi que leurs revenus publicitaires. Afin de préserver leur audience, soit ils développent des applications natives pour chaque portail de constructeur de TV connectée, soit ils s’orientent vers la HbbTV, qui présente les avantages de fonctionner en mode dégradé s’il n’y a pas d’accès à Internet et de gérer des contenus riches.
    Google TV s’est concentré pour sa part sur le cœur de métier de Google : la recherche. Il s’agit d’un super moteur de recherche de contenus médias. Mais il ne permet pas encore de regarder la TV dans de bonnes conditions en terme d’expérience utilisateur, de gérer les chaînes en direct, d’enregistrer les émissions en broadcast ou d’avoir un guide de programmes. Apple TV présente la même expérience utilisateur et les mêmes travers. Il s’agit plutôt d’un système pour regarder de la VoD et des contenus entièrement délinéarisés.
    Les stratégies hybrides des chaînes de télévision apparaissent plus intéressantes. Elles allient accès à Internet et TV Premium ou broadcast. Mais le développement de la fibre optique peut à terme changer la donne si Apple ou Google intègrent des chaînes TV streamées via Internet dans leur offre. Encore faudrait-il qu’ils arrivent à se mettre d’accord avec les chaînes locales, ce qui est loin d’être évident.

    - SBD : Quels enseignements doit-on tirer selon vous de l’évolution des médias sociaux pour l’adaptation des modèles d’affaire de la distribution de films en ligne ?

    OE : Pour que les médias sociaux fassent irruption dans l’interface TV, soit l’utilisateur possède un deuxième écran pour surfer sur les sites, soit il les utilise directement sur l’écran TV. Mais il s’agit d’un usage personnel qui ne correspond pas forcément à l’écran TV, partagé par plusieurs personnes du foyer. Le second écran (tablette ou smartphone, voire laptop) sera donc probablement privilégié par les utilisateurs pour les composantes sociales de l’expérience télévisuelle (tchat avec ses amis, commentaires live sur une émission, rating, recommandation, etc.). La question se pose pour synchroniser ces écrans personnels et la TV. Il existe notamment des solutions similaires à Shazam qui écoutent le son de la TV et reconnaissent automatiquement le programme et la chaîne en cours.


    • Concernant le téléchargement illégal et la réponse législative

    - SBD : Tandis que nombre d’études affirment que le téléchargement illégal nuit fortement à l’industrie du film, de plus en plus d’études tendent à montrer que le piratage n’affecterait que peu les ventes, voire aurait un effet positif sur la consommation légale des contenus, à mesure que l’offre légale se développe. Quel est votre point de vue sur le sujet ?

    OE : Je me demande toujours comment est construite la méthodologie et l’échantillonnage de ces dernières études. Je n’ai pas encore observé que ceux qui téléchargent illégalement le plus soient également les plus gros consommateurs. Cependant les fuites de consommation sont variables et il existe un phénomène de vase communiquant dans les diverses offres. Cela dépend aussi du pouvoir d’achat. Un « pirate » à faible pouvoir d’achat va moins consommer que s’il ne piratait pas. Un « pirate » à fort pouvoir d’achat va peut-être consommer des contenus payants. En tous cas, à terme, il faudra simplifier les licences d’usage des contenus pour leur usage sur tous les écrans dont on dispose.

    - SBD : Quelle est votre évaluation des actions menées par le gouvernement pour lutter contre le téléchargement illégal, notamment à travers la Hadopi et ses volets répressif et incitatif ?

    OE : L’esprit de la loi Hadopi est bon mais sa mise en œuvre est déplorable. Il n’y a pas eu suffisamment de concertations lors du vote de la loi et les améliorations ont été refusées. La coupure de l’accès Internet est discutable car ce dernier est devenu de facto un droit fondamental. Et puis la migration des réseaux P2P vers le streaming ou le direct download rendent la loi techniquement dépassée. Par ailleurs, il est incroyable qu’il n’y ait aucun représentant des consommateurs au sein de la Hadopi.

    - SBD : La chronologie des médias est-elle adaptée ?

    OE : En France, la chronologie des médias pose problème. Pour les plateformes de VoD, la première fenêtre de diffusion demeure courte, suivie d’une longue fenêtre durant laquelle le film est uniquement disponible sur l’offre de TV Premium puis en DVD. La deuxième fenêtre VoD n’intervient que longtemps après. La consommation apparaît un peu moins lésée aux États-Unis, avec une chronologie beaucoup plus souple. À terme, la chronologie des médias doit s’estomper car actuellement, l’offre de VoD est illisible pour le consommateur.

    - SBD : Que pensez-vous d’un système de répartition de la valeur de type licence globale ?

    OE : Je ne crois pas trop aux modèles de type licence globale. Nous avons déjà la redevance TV et ça suffit. Ce type de modèle de répartition de la valeur dirigiste est opaque. Il a aussi tendance à favoriser les artistes les plus connus. Une alternative viable demeure la S-VoD, avec des bundles originaux, comme par exemple l’association de la S-VOD avec de la TV Premium.

    - SBD : Quelles solutions, selon vous, au déclin annoncé de la télévision comme bailleur de fond du cinéma et à l’arrivée de nouveaux acteurs ne participant pas au financement de la création?

    OE : La réglementation devra évoluer. Dans la perspective d’une globalisation des échanges, les systèmes locaux, comme l’exception française, sont difficilement soutenables. Les opérateurs locaux sont bien sûr les plus faciles à réglementer au niveau national. Mais il faudrait uniformiser le système de TVA, qui pénalise les acteurs français de la VoD par rapport aux acteurs américains comme Apple ou Amazon, qui diffusent les films à partir de l’Irlande ou du Luxembourg.

    - SBD : Quelle est votre position concernant la transposition du Paquet Télécom et le principe de neutralité d’Internet ?

    OE : Le débat est bien compliqué. On a trop tendance à associer deux sujets : qui doit financer quoi dans les infrastructures, et de l’autre, assurer la liberté de diffusion et d’accès sur Internet. Les FAI aimeraient bien faire payer les Google et autres car ils utilisent leurs ressources. D’un autre côté, les opérateurs télécoms se portent plutôt bien financièrement donc la répartition de la valeur n’est pas si inéquitable que cela !


    • Concernant les consommateurs

    - SBD : Si on se positionne du côté des consommateurs, quelle est votre analyse des besoins et attentes des consommateurs en matière d’achat de films en ligne ?

    OE : Pour la TV connectée, il faut un accès à une offre large, la plus globale possible, afin de pouvoir consommer de la vidéo sur la TV. L’objectif du consommateur est de maximiser son plaisir, avec des contenus les plus pertinents possibles, d’où l’intérêt des réseaux sociaux et de la recommandation.
    Les comportements des consommateurs demeurent fortement segmentés, selon l’âge, la catégorie social, le niveau de sociabilité, le lieu de vie.


    • Pour conclure

    - SBD : Quels seront selon vous les facteurs clé de succès pour la distribution numérique des films ?

    OE : Le succès de Netflix est intéressant à analyser. Le chiffre d’affaire de la VoD a ainsi dépassé celui du DVD fin 2009 – début 2010, stimulé par le développement de l’offre d’abonnement, l’outil de recommandation, le fait qu’il ait signé avec presque tous les studios et une stratégie de capillarité de distribution extrême, avec le développement de partenariats de distribution sur une multitude d’appareils (box, consoles, lecteurs). En France, Canal Plus a également développé une stratégie similaire et demeure présent sur le satellite, le câble, Internet, l’IPTV et le mobile.
    Une des pistes serait une offre associant les avantages de Canal Plus, avec une offre de TV premium, et de Netflix, avec la S-VoD.

    Tags: , , , , , , , , ,
    Publié dans FRANCAIS |

    Aucun commentaire

    27
    10
    2010

    Neutralité du net au Sénat et annonce d’une proposition de projet de loi sur le sujet

    Des rencontres sénatoriales sur la neutralité de l’Internet ont eu lieu hier, organisées conjointement par la commission de la culture (Catherine Morin-Desailly) et la commission des finances du Sénat (Bruno Retailleau). Deux grandes thématiques ont été abordées : la neutralité des contenus et la neutralité des réseaux.

    Avec l’explosion des usages, des besoin de bande passante, du trafic des utilisateurs (notamment sur le mobile), certain acteurs économiques sont tentés de restreindre ou de faire payer différemment selon les contenus. Par ailleurs, le blocage apparaît comme un des moyens pour préserver l’intérêt public et privé. Que justifie la préservation du principe de neutralité ? Peut-on y déroger et sous quelles conditions ? Comment doit-on légiférer ? Quelle position adopter, entre congestion et entrave ?

    Dans le cadre de la transposition du Paquet Telecom, le rôle du Sénat est  ainsi de définir une ligne de pensée, de déterminer des principes fondamentaux, de dresser des pistes de compromis, des modes originaux de règlement des conflits, d’ouvrir un débat citoyen, grand public, afin de fixer dans notre corpus législatif les règles à appliquer sur Internet.

    Nathalie Kosciusko-Morizet, Secrétaire d’Etat chargée de la Prospective et du Développement de l’économie numérique, intervenue à la fin des rencontres, est venue préciser l’action prochaine du gouvernement : une fois le côté technique de la transposition du Paquet Télécom validé, une proposition de loi (PPL) sera préparée afin de laisser place à une dimension politique.

    Table ronde 1 : Neutralité des contenus


    • Emmanuel Gabla, Membre du CSA

    emmanuel-gabla-csa

    Pour Emmanuel Gabla, l’arrivée des téléviseurs connectés va changer la donne dans le monde audiovisuel à l’ère du numérique. Désormais les deux univers de la TV et de l’Internet se téléscopent et dépassent le cadre des services gérés. Quelle liberté laisser au spectateur ? Quelle qualité de visionnage pour tous ? Il a ainsi annoncé la volonté du CSA de faire comme l’ARCEP et de lancer des auditions afin de définir des propositions, ainsi que l’organisation début février au Sénat d’un colloque sur les TV connectées.

    D’un point de vue juridique, et dans le cadre de la défense de la liberté de communication, il a souligné qu’il est indispensable que les internautes puissent envoyer/recevoir tous les contenus de leur choix, et éviter la marginalisation de certaines sources d’information (par le filtrage, la diminution de qualité de services). Sous cet angle, le principe de neutralité du net se doit d’être le garant de la liberté d’expression et assurer la non-discrimination, la transparance et un service minimum.

    D’un point de vue économique, le CSA apparaît en faveur de possibilités d’aménagement du principe de neutralité du net en faveur des FAI pour financer l’établissement de nouvelles infrastructures, la construction du réseau de fibre optique, pour une facilité de visionnage des contenus vidéos, enrichis.

    Emmanuel Gabla a bien sûr insisté sur le fait que le principe de neutralité du net ne doit pas appauvrir la création et aider au financement de la création par nouveaux fournisseurs de contenus et que ce principe doit s’appliquer également aux moteurs de recherche. Il a ainsi fait allusion aux craintes que les services d’Apple TV, Google TV ne favorisent les contenus outre-atlantiques.

    • Pierre Louette, Secrétaire Général d’Orange

    pierre-louette-orange

    Après avoir cité cette définition de la neutralité du net : « tous les paquets de données sont libres égaux et en droits », un grand principe fondateur du réseau tel qu’imaginé au départ, Pierre Louette a déclaré, qu’au-delà de ce principe, les FAI doivent gérer la saturation due à la montée en puissance des contenus sur des réseaux qui se développent (12% de leur CA serait investi chaque année pour faire fonctionner le réseau), au développement des services mobiles (notamment avec les smartphones).

    Il a alors annoncé la position d’Orange concernant le principe de neutralité du net : trouver un point d’équilibre entre ces deux extrêmes. Une position claire, qu’il a résumée ainsi : « la neutralité n’est pas la passivité ». L’opérateur prône ainsi la capacité à gérer l’accès à des services professionnels (dans le domaine de la santé par exemple, « et tout autre type de contenu ») afin de pouvoir organiser des formes de priorité avec une garantie de services assurée.

    • Alain le Diberder, Conseiller à la création interactive au Conseil d’Administration de la SACD

    alain-le-diberder-sacd

    Les auteurs, a souligné Alain le Diberder, considèrent de plus en plus Internet comme un lieu de création incontournable, où le phénomène du bouche à oreille est démultiplié. Pour lui, la net neutralité permet un accès neutre aux informations et publics, ce qui implique que la SACD est contre les offres différenciées selon les opérateurs.

    Après avoir insisté sur la légitimité du droit d’auteur et le « droit de ne pas se faire voler », il a déclaré que les services de TV connectée doivent venir prolonger le système de financement de la création par l’aval (chronologie des médias). Il a ainsi rapproché le débat sur la neutralité du net à celui de la protection des œuvres sur Internet, réaffirmant le soutien de la SACD à la Hadopi et donc au filtrage.

    • Giuseppe de Martino, Président de l’ASIC

    giuseppe-de-martino-asic

    C’est entant que Président de l’Association des services Internet communautaires, et non sous sa casquette de dirigeant de Dailymotion, que Giuseppe de Martino est intervenu au Sénat. L’ASIC exige la transparence de la part des fournisseurs de réseaux ainsi que la non-discrimination, un système qui préserve les petits acteurs (ce qui ne figurerait pas dans le Paquet Telecom).

    Une position toute nuancée puisqu’il a déclaré qu’il comprenait que les FAI aient besoin de décongestionner les réseaux et qu’une neutralité du net qui empêcherait de pouvoir toucher aux contenus qui transitent pourraient nuire à la sécurité des enfants… Il s’est ensuite défendu d’avoir voulu que l’argument de la neutralité du net soit utilisé pour lutter contre la loi Hadopi.

    Le Président de l’ASIC a ensuite proposé, dans un souci de transparence, l’établissement dans chaque ambassade d’un correspondant en mesure de donner l’état réel des connexions Internet dans les différents pays.

    • Frédéric Goldsmith, Délégué Général de l’APC

    frederic-goldsmith-apc

    Pour le représentant du l’Association des producteurs de cinéma, le débat sur la neutralité du net, au-delà des définitions techniques, est l’occasion de définir les fondamentaux et les chaînes de valeur. La neutralité n’est pas antagoniste à la propriété intellectuelle, a-t-il souligné. Et, la régulation doit rester cohérente quelque soient les technologies concernées.

    Frédéric Goldsmith a rappelé la richesse de l’écosystème français du cinéma, garant d’un équilibre global permettant à l’ensemble des acteurs de prospérer et de croître. Rappelant l’exemple du cinéma italien, qui, en l’absence d’une régulation de la TV, a été « tué en quelques années », il a signalé la richesse de l’exception culturelle française. La France, ayant constaté que le cinéma est un produit d’appel et que ceux qui bénéficient des produits d’appel doivent investir dans le renouvellement des contenus, a ainsi su se doter d’une régulation des services efficace. Il a ainsi insisté sur le fait que le suivi des œuvres et la transparence sont indispensables, avec un maintien du soutien financier des pouvoirs publics pour aider à dynamiser le marché.

    Le problème n°1 pour Frédéric Goldsmith, est qu’avec Internet, les services peuvent désormais s’installer à l’étranger, entraînant une distorsion fiscale importante, avec des taux de TVA différents (entre le Luxembourg et la France). Une déclaration qui n’était pas sans rappeler les débats qui avait eu lieu sur la taxe Google.

    Pour ce qui est de la régulation des flux par les opérateurs, il s’est déclaré tout à fait ouvert à des partenariats avec les opérateurs, dans un souci de partage équitable de la valeur. Car, à l’ère du numérique, l’audiovisuel et le cinéma sont devenus des produits d’appel et la valeur a migré vers les terminaux. Pour lui, les systèmes fermés ne peuvent pas être interdis mais il faut trouver des solutions équitables.


    Table ronde 2 : Neutralité des réseaux


    • Claude Kirchner, Chercheur à l’INRIA

    claude-kirchner-inria

    Aujourd’hui, la technologie permet aux FAI de contrôler l’accès aux applications et aux contenus. Alors, « comment souhaite-t-on contrôler le contrôle » ? Quel impact sur la liberté d’expression ? Claude Kirchner a ainsi rappelé que les technologies de filtrage permettent désormais de biaiser les recherches selon des intérêts économiques et/ou politiques (par exemple, influencer des enchères en ligne, préférer les contenus francophones plutôt qu’anglophones). Etant donné que les protocoles sur Internet véhiculent des philosophies de communication, Claude Kirchner a prévenu que si rien n’est fait pour préserver la neutralité du net, la technologie le faira (et le fait déjà) pour nous.

    Soulignant le rôle fondamental de la recherche et l’importance d’une connaissance approfondie des réseaux pour pouvoir légiférer sur le principe de neutralité du net, et par là la nécessité d’un partenariat technique/législatif, le chercheur a regretté que la consultation publique en France ait été si courte (1 mois). Il a également émit le besoin de développer un observatoire du réseau (protocoles, utilisations) afin de mieux comprendre Internet pour être en mesure de quantifier la neutralité du net.

    bernard-benhamou-usages-de-linternet

    Pour Bernard Benhamou, la neutralité du net étant le premier levier pour la création et l’innovation, il est indispensable qu’il n’y ait pas de seuil d’entrée pour utiliser ce levier. Il a défini le principe de neutralité du net comme étant la loi antitrust des réseaux.

    Il a ensuite affirmé que le gros problème en France, repose en partie sur une certaine culture de l’ingénieur, qui implique une sacralisation de l’infrastructure, le créateur de contenu étant perçu comme un saltimbanque.

    • Arnaud Brunet, Délégué des affaires extérieures et juridiques de Sony

    arnaud-brunet-sony1

    Arnaud Brunet a décrit la TV connectée, qui permet d’avoir accès à des services allant de la TV à l’Internet : regarder la TV hertzienne, connecter la TV via une box des FAI pour faire de l’interactivité et apporter ainsi une profondeur au programme diffusé, utiliser des widgets, accéder à des contenus audiovisuels à la demande (TV de rattrapage, VOD).

    Il a alors souligné la nécessité des moteurs de recherche pour l’accès à la multitude de contenus. Le représentant de Sony a présenté ses craintes face aux accès différenciés des FAI, qui empêchent un accès équitable au réseau et donc la création d’un nouvel écosystème.

    emmanuel-forest-bouygues-telecom1

    L’opérateur a rappelé qu’il faisait face à des coûts fixes importants ainsi qu’à des contraintes techniques non négligeables. Il s’est ainsi déclaré favorable à la facturation en fonction de l’utilisation.

    • Edouard Barreiro, Chargé de mission sur les technologies de l’information à l’UFC Que Choisir

    edouard-barreiro-ufc-que-choisir

    Pour Edouard Barreiro, le Paquet Telecom ne va pas assez loin. Il a rejoint la position de l’ARCEP, en appelant à un « Internet Best Effort » mais avec un niveau suffisant.

    Il s’est déclaré opposé au rôle de policier des FAI, rappelant les risque de dérapage du filtrage qui utilise des technologies dignes d’Etats totalitaires, et le besoin d’une décision préalable d’un juge.

    En réponse à l’intervention d’Emmanuel Forest de Bouygues Telecom, il a déclaré que les réseaux fixe et mobile ne présentaient pas les mêmes contraintes. Sur le réseau fixe, le coût est le même suivant la consommation, alors qu’il n’en est pas de même sur le réseau mobile. Et, étant donné que la facturation est déjà différenciée sur le mobile, il ne peut pas en être de même pour le fixe.

    • Philippe Distler, Directeur général de l’ARCEP

    philippe-distler-arcep

    Enfin, Philippe Distler est revenu sur les dix propositions et recommandations de l’ARCEP.

    Durant le débat qui a suivi les deux tables rondes, on notera l’intervention d’Olivier Esper, Directeur des relations institutionnelles de Google France, qui a déclaré que les moteurs de recherche étaient neutres par nature étant donné que l’exhaustivité étaient un facteur concurrentiel dans leur métier. Répondant aux interrogations concernant le lancement du service Google TV, il en a appelé à la pro-activité des acteurs français et a insisté sur la nécessité de proposer une offre riche sur Internet. À une question d’un auditeur sur le récent accord entre Google et Verizon, Olivier Esper a insisté sur le fait qu’il s’agissait d’un position commune et non d’un accord commercial, renvoyant l’audience au site de l’ARCEP.

    La question de la licence globale a également été soulevée par Stéphane Larcher, Directeur de la publication de la revue Cités numériques, présent dans la salle. Ce à quoi Alain le Diberder (SACD) a coupé court en répondant que la proposition avait du bon puisque la licence globale participe à la création, mais que ce système privait les auteurs de leur droit fondamental de choisir ou non la diffusion des œuvres.

    Tags: , , , , , , , , , , , , , , ,
    Publié dans FRANCAIS |

    Aucun commentaire

    9
    09
    2010

    Facebook et Google auditionnés hier à l’Assemblée, Je t’aime moi non plus

    facebook_googleHier avait lieu à l’Assemblée nationale l’audition des responsables de Facebook et de Google dans le cadre de la Mission d’information commune sur les droits de l’individu dans la révolution numérique. Il s’agissait pour la mission de connaître la politique de ces deux géants de l’Internet en matière de protection de la vie privée, de géolocalisation, de ciblage publicitaire, de lutte contre la cybercriminalité ou bien encore d’éducation au média.

    Comme l’a introduit le président de la mission d’information, le député Jean-Luc Warsmann : « Le réseau Facebook, créé il y a 6 ans, est désormais le n°1 mondial. Il dispose d’une communauté de près de 500 millions d’inscrits, qui téléchargent chaque jour de l’ordre de 100 millions de photographies. Le chiffre d’affaire a doublé entre 2008 et 2009, et il s’élèverait entre 600-800 millions de dollars ; peut-être est-il en train d’atteindre de nouveaux sommets pour 2010. Parmi les 10 sites les plus fréquentés du monde, Facebook est de loin le plus chronophage ; quand un internaute passe en moyenne 1h20 sur Google ou 1h30 sur eBay, il se connnecte 6h par mois sur Facebook. Le phénomène des réseaux sociaux concerne évidemment la France puisqu’on estime à plus de 20 millions le nombre de Français inscrits sur le réseau communautaire et à plus de 8 millions celles et ceux qui s’y rendent quotidiennement, avec les moins de 24 ans qui représentent plus du tiers des inscrits ».

    Richard Allan, directeur Europe de la politique publique de Facebook, a commencé par souligner que les moins de 18 ans ne représentent que 13% des utilisateurs de Facebook. Selon lui, les 30-35 ans demeurent les plus présents, une tranche d’âge qui facilite l’échange intergénérationnel puisqu’ils interagissent sur Facebook avec leurs enfants, leurs amis, leurs parents… Puis, plus tard dans le débat, de souligner que le règlement de Facebook interdit spécifiquement aux mineurs d’ouvrir un compte sur le site communautaire et que tout manquement à cette règle, une fois notifié, entraîne la fermeture immédiate du compte. La protection des mineurs se ferait donc par ajustements successifs suite aux notifications des utilisateurs, de la même façon que pour les contenus à caractère pornographique.

    Richard Allan s’est voulu rassurant concernant cette « procédure d’auto-régulation ». Une procédure bien connue de tous les hébergeurs de contenus sur le net, la fameuse Notice and Take Down : après notification d’un contenu interdit, d’une utilisation ou d’un compte frauduleux, d’un quelconque harcèlement publicitaire, Facebook lance une procédure de vérification et d’analyse, puis ensuite, le cas échéant, ferme le compte incriminé.

    Le représentant de Facebook a ainsi souligné que la politique du site communautaire en matière de vie privée était basée sur une relation de confiance entre le site et ses utilisateurs. Le site héberge les données au nom de l’utilisateur et n’en est à aucun moment le propriétaire. Ainsi, ces données peuvent être supprimées sur simple demande de l’utilisateur. Mais, il serait apparemment fréquent pour les utilisateurs de souhaiter suspendre leur compte pendant un certain temps, puis de le réactiver quelque temps après, car une fois effacées, les données disparaissent totalement. Facebook a donc mis en place une procédure en deux temps suspension/suppression. 

    Il n’existerait donc aucun problème concernant la concervation des données (sauf avec le hacking inhérent sur le net) puisqu’également, et c’est un point sur lequel le directeur Europe de la politique publique de Facebook se devait d’insister devant nos députés français : à aucun moment Facebook ne transfère (pour le moment ?) les données des utilisateurs aux annonceurs.

    Pour ce qui est de la fonction de Tag automatique des photos, Richard Allan s’est montré plutôt enthousiaste : cela permettrait plus facilement aux utilisateurs d’être au courant des photos publiées sur Facebook où ils apparaissent et de pouvoir les effacer si nécessaire…

    Une ambiance plutôt détendue et optimiste donc, pour le n°1 mondial des sites communautaires, puisque la seule accusation grave portée par les députés semblait ne concerner que les désormais célèbres apéros Facebook, dont Richard Allan s’est défendu en assurant que désormais Facebook prévenait les autorités dès qu’un contenu devenait illégal et prônait ainsi la « paix des contenus » (peace of content)…

    Il n’en fut pas de même pour l’audition de Google, qui nous a semblé beaucoup plus tendue ; certainement suite à la volonté affichée de certains représentants de notre gouvernement de taxer les revenus publicitaires du géant de l’Internet… 

    Devant les membres de la mission d’information, Yoram Elkaïm, directeur juridique « Southern and Eastern Europe, Middle East and Africa » de Google, a souligné qu’il existe déjà un cadre juridique, notamment en matière de vie privée, dans le monde numérique et qu’il est faux de penser qu’Internet est un far west. Mais si le socle existe, il a reconnu que des difficultés pouvaient émaner du fait que certaines problématiques du numérique pouvaient être traitées différemment selon les pays. 

    S’agissant de la question des droits d’auteur, notamment avec YouTube, les représentants de Google France ont appuyé une nouvelle technique de protection des contenus, Content ID, une solution gratuite proposée aux ayants droit afin de poser une emprunte sur les contenus et d’en définir les règles de distribution. Et, point intéressant, ils ont annoncé leur intention de développer un système de diffusion pour les œuvres orphelines.

    Dans le domaine de la protection des données privées, Alexandra Laferrière et Olivier Esper, chargés des relations institutionnelles de Google France, ont rappelé que les règles de confidentialité sont accessibles sur la page d’accueil Google et qu’un tableau de bord (dashboard) permet de savoir aux utilisateurs ce que Google garde sur eux et le cas échéant de changer les paramètres (bon à savoir !)…

    En matière de lutte contre la cybercriminalité, le groupe s’est déclaré plus enclin à l’établissement de chartes de bonnes conduites avec les entreprises. Les représentants de Google France ont ainsi cité en exemple les « Social Networking Principles » qui auraient permis d’éditer des principes de signalement de contenus « choquants » afin de les retirer au plus tôt. Ou bien encore, sa collaboration avec l’association La voix de l’enfant, qui aurait permis la mise en place de plusieurs initiatives pour sensibiliser et éduquer les jeunes dans les écoles, aux bonnes pratiques et conseils sur Internet.

    Sur la question du filtrage, la position du géant du net en la matière demeure contrastée. Le fait que le filtrage soit effectif sur Google a cependant été confirmé. Partant de l’exemple du filtrage test « Safe Search », afin que les contenus pornographiques n’apparaissent pas dans les recherches, les représentants de Google France ont ensuite affirmé leur soutien à l’amendement du projet de loi dite Lopsi pour lutter contre la pedopornographie, qui permettrait de faire valider par le juge une liste noire des sites incriminés. Dans un tout autre domaine, ils ont alors souligné la fin du filtrage pour la Chine. Google serait ainsi capable de gérer différemment l’accès aux contenus selon l’origine des utilisateurs (sauf pour les apatrides VPN…) et n’effectuerait pas de blocage pour les pays où il n’est pas implanté… Et, pour rester fidèle à la politique de transparence et de bonnes pratiques affichée par Google, ses représentants ont déclaré que les utilisateurs pouvaient consulter une liste des sites filtrés et demander leur retrait le cas échéant.

    A souligner le fait que ni Facebook, ni Google France, ne se sont prononcés sur la question de la net neutralité, sujet soulevé par l’un des deux rapporteurs de la mission, le député Patrick Bloche, qui a d’ailleurs déclaré que le sujet mériterait certainement une mission d’information propre à ce thème. Le rapport de cette mission d’information sur les opportunités et les risques que les TIC représentent pour la garantie des droits individuels, est attendu pour le printemps prochain. Affaire à suivre donc…

    Tags: , , , ,
    Publié dans FRANCAIS |

    Aucun commentaire

    13
    04
    2010

    La neutralité des réseaux coiffée au poteau

    000000003664Aujourd’hui avait lieu à Paris un colloque sur la neutralité des réseaux, organisé par l’ARCEP, avec pour volonté de poser les grandes questions autour de la neutralité des réseaux, du point de vue de la société, de l’économie, du droit et de la politique. Les défis annoncés : non-discrimination, transpa-rence, différenciation et politique de co-régulation.

    Un sujet qui n’a pas fini de faire des vagues, à l’heure des débats autour de la LOPPSI 2 (dont plusieurs articles touchent au secteur des nouvelles technologies, comme le délit d’usurpation de l’identité numérique, le blocage des sites pédopornographiques, le fichier d’analyse sérielle), de la mise en place d’un groupe d’experts consultatif par Nathalie Kosciusco-Morizet (pour l’élaboration d’un rapport devant être remis après le vote par le Sénat de la LOPPSI 2, pour contribuer à éclairer les décisions du gouvernement sur l’intégration plus ou moins littérale en droit français du principe dit de « neutralité de l’Internet » selon lequel nul ne doit modifier, ralentir ou bloquer quelque message que ce soit entre l’expéditeur et son destinataire), de l’application prochaine de l’HADOPI 2 (qui va instaurer la riposte graduée pour lutter contre le téléchargement illégal d’œuvres sur Internet), des négociations autour des accords de l’ACTA (« Anti Counterfeiting Trade Agreement » pour organiser une extension à l’échelle mondiale de la riposte graduée et une généralisation des mesures de filtrage), de l’apparition de tendances monopolistiques (avec notamment le passage vers des systèmes fermés comme l’iPad).

    Le concept de net neutralité laisse entrevoir deux visions contradictoires. L’une négative, car pour promouvoir la neutralité du Web, la régulation pourrait devoir mettre en place des contraintes. La seconde positive, car à la différence des débats jusqu’alors suscités par la protection des modèles économiques et juridiques, le terme de « neutralité » apparaît.

    Timothy Wu, professeur à l’Université de Columbia, a rappelé que la question de la neutralité du transporteur, appliquée à Internet, n’est pas nouvelle. Le blocage, en Chine par exemple, révèle une dimension politique face à une censure privée. Eli Noam, également professeur à la Columbia, a ainsi rappelé qu’alors que l’information est difficile à contrôler, il est plus facile de contrôler son transport.

    L’intervention de Winston Maxwell, avocat dans le Cabinet Hogan & Hartson basé à Paris et New York, a permis de comparer les approches américaines et européennes. Elles se concentrent toutes deux sur le consommateur, du point de vue du droit pour ce qui est de l’approche américaine, et du point de vue de la qualité de service minimum pour l’approche européenne. Il apparaît ainsi qu’un service de protection est à inventer, avec un cahier des charges pour le service public de l’Internet dans le monde. La nécessité de transparence est également un point de ralliement. Par contre, la méthodologie européenne demeure essentiellement centrée sur comment gérer les problèmes de puissance dans le secteur des telecoms, et la question des libertés fondamentales a un poids énorme dans les débats, alors qu’aux US la question de la liberté d’expression est plutôt de second rang (puisque ne se pose même pas, est fondamentalement intouchable).

    Comme l’a souligné Yves Gassot, DG de l’IDATE, la net neutralité nous permet de réfléchir de façon prospective sur l’avenir de nos entreprises. Ainsi, pour Stéphane Richard, DG de France Telecom, le numérique est avant tout une question d’investissement, avec les opérateurs comme acteurs incontournables. 

    Pour ce qui est de la gestion du trafic, de la tarification et du partage de valeur, Martin Rogard, directeur France de Dailymotion, a lancé un pavé dans la marre : « à quand des états généraux sur la répartition du prix de l’abonnement ?! ». Ainsi, Benjamin Bayart, président du French Data Network, a rappelé que « le débat s’oriente selon de quel côté du porte-monnaie on se situe », avec une fracture entre FAI et fournisseurs de contenu (fervents défenseurs de la neutralité des réseaux). L’intervention de Maxime Lombardini, DG de l’ILIAD (Free), était révélatrice en ce sens. Clairement positionné contre le filtrage par les FAI ou le gouvernement, celui-ci s’est déclaré préoccupé par le « rideau de fumée » que représente le concept de net neutralité instrumentalisé par « certains très gros sites américains » qui utilisent beaucoup de capacité et ne participent pas aux contenus ou réseaux. Ainsi, avec l’intégration verticale (terminaux, plateformes de service), certains acteurs échappent aux taxes, quotas et régulations (françaises notamment). Après la net neutralité, à quand la content neutralité ?

    Rappelant que le P2P, entant que protocole d’échange, demeure la base d’Internet et la raison fondamentale de l’innovation sur le net, Benjamin Bayart a déclaré qu’alors que 70% des revenus étaient générés par 8% des contenus (vidéo), si l’on enlève ou bloque l’accès à ces contenus, on enlèverait 100% des revenus.

    S’agissant de de la limitation des débits, Stéphane Richard l’a décrite comme acceptable si transparente. Yves Gassot a quant à lui avancé le « modèle de la boite de nuit » où l’on ne fait payer qu’une partie des clients. Un responsable de la régulation Internet au Maroc, présent dans la salle, a alors soulevé le problème de la question du filtrage pour des raisons techniques, commerciales, qui ouvrirait la porte aux dérives du filtrage pour des raisons religieuses, culturelles… Puis, Jérémy Zimmermann de la Quadrature du Net, également présent dans la salle, a lancé le problème de la différenciation, de laisser un opérateur définir l’utilisation selon le type d’utilisateur. Et Benjamin Bayart de rappeler que le marché sans la régulation, cela ne marchait pas, avec pour illustration la récente crise de la finance…

    Comme le soulignait Benjamin Bayart, faisant allusion aux publicités mensongères des opérateurs mobiles qui promettaient un accès à Internet avec la clé 3G, les définitions de « service Internet » et « illimité » doivent désormais être précisées. Hervé Le Borgne, vice-président de l’UFC-Que Choisir, a ainsi insisté sur le fait que si restrictions il y avait, elles devaient être annoncées, justifiées et neutres, tout particulièrement pour les contenus.

    Nathalie Kosciusko-Morizet, secrétaire d’Etat à la prospective et au développement de l’économie numérique, a rappelé que l’organisation des rapports contractuels de la chaîne des acteurs d’Internet est une priorité qui concerne l’ensemble de l’économie mondiale et non pas un effet de mode. Les défis demeurent le développement du très haut débit, la gestion des pics de services et la transparence vis-à-vis des utilisateurs et spécialistes, l’identification des techniques acceptables, celles dont les effets collatéraux seraient trop néfastes pour l’intérêt général. La ministre en appelle à la mise au point de bonnes pratiques en accord avec les objectifs et a souligné que la liberté n’est jamais acquise et la maintenir demeure un effort quotidien, qui ne va pas sans droits ni devoirs.

    Dans la série discours de personnalité politique, Neelie Kroes, commissaire européenne en charge de la stratégie numérique, a rappelé les pincipes fondamentaux d’Internet en libre concurrence : liberté d’expression, transparence non négociable et réseaux efficaces ouverts. Par ailleurs, comme l’affirmait Marc Tessier, président du Video Futur Entertainment Group (location vidéo), l’appel à la régulation ne doit pas être dogmatique mais les réponses doivent être plurielles, selon les contraintes, avec une instance de régulation unique.

    Ce colloque, sans apporter de réponses concrètes, aura tout du moins permis d’ouvrir le débat, de décrypter les intérêts et contraintes des acteurs économiques. Dans le contexte législatif français, des questions restent en suspend : Quelles seront les conséquence d’un filtrage sur l’écosystème et l’économie des contenus numériques ? Les risques de blocage collatéral des sites Internet (sur-blocage) n’ouvrent-ils pas la porte à une certaine forme de censure ?

    Tags:
    Publié dans FRANCAIS |

    Aucun commentaire