Le potentiel du P2P est important (A). Il amène à envisager différentes solutions pour résoudre sa confrontation avec le droit d’auteur (B).
Potentiel du P2P
Le P2P est une évolution technologique qui bénéficie paradoxalement d’un intérêt phénoménal du public (1) et d’un manque presque total d’opportunité des industriels (2).
1. Une plus grande fluidité de l’information
Le potentiel du P2P va bien au delà du simple transfert de fichiers ou du partage du temps de calcul. Le prochain enjeu d’Internet vise, en effet, à corriger la myopie des systèmes de recherche et d’indexation actuels qui sont dépassés par la taille croissante des données à traiter ainsi que par le caractère de plus en plus dynamique et volatil des informations qui sont offertes aux internautes [1].
À l’image de Gnutella, les technologies P2P offrent maintenant des solutions pour contourner ces limitations en mettant au point des langages de recherche plus sophistiqués que le simple archivage automatique des serveurs auquel doivent se restreindre les moteurs de recherche [2].
De plus, le P2P permet de considérer chaque utilisateur comme un moyen de « cache » des données du net pour les conserver plus près des autres en augmentant ainsi la facilité de recherche et la rapidité de transfert. En effet, le meilleur moyen de gérer une quantité croissante d’information correspond à l’adoption d’une architecture formée d’unités autonomes, sans concertation centrale, mais communiquant les unes avec les autres [3].
Le P2P permet donc de radicalement faire évoluer la structure client-serveur centralisée et coûteuse aujourd’hui adoptée par Internet pour autoriser une structure distribuée et flexible autrement mieux adaptée à la croissance démesurée qui attend les années à venir.
2. Un virage manqué par les industriels
Les professionnels de la culture ont reconnu à l’occasion du MIDEM 2003 qu’Internet avait désormais bouleversé le secteur de l’édition culturelle. Si leur discours se limite en général à étudier les différentes méthodes pour transformer celui qu’ils appellent contrefacteur en consommateur légal, certains producteurs n’hésitent pas à dévoiler des solutions plus radicales. C’est ainsi, par exemple, que Pascal Nègre [4] ne préconise pas moins que la mise en place d’une procédure nationale de filtrage de l’accès aux contenus illicites qui serait gérée par les professionnels du secteur en collaboration avec les fournisseurs d’accès à Internet.
On devrait pourtant se souvenir que l’avenir du secteur ne dépend sans doute pas d’une loi par laquelle la puissance publique abandonnerait ses prérogatives à des personnes privées sans respect pour les libertés individuelles ou l’intérêt général. Au demeurant, le Code de la propriété intellectuelle permet déjà d’obtenir la fermeture d’un site avant la poursuite du débat sur le fond, mais avec l’obligatoire aval d’un juge dont l’intervention limite évidemment les perspectives des industriels [5].
Solutions proposées
« ...la seule source d’amélioration intarissable et permanente du progrès est la liberté, puisque grâce à elle, il peut y avoir autant de foyers de progrès que d’individus ».
John Stuart Mill, De la liberté, 1859.
1. L’interdiction et le contrôle du P2P
Certains justifient donc le contrôle du P2P (a) mais cela devrait d’abord passer par une reprise en main d’Internet (b) et ne serait pas sans dommages vis-à-vis du public (c).
- a. Leurs justifications théoriques
Selon la majorité de la doctrine juridique, la justification classique de la copie privée tiendrait à ce que peu de copies étaient possibles et qu’elles étaient, autrefois, très difficiles à contrôler dans un environnement analogique. À l’époque, il fallait donc trouver un moyen terme en remplaçant le régime naturel de la liberté totale par une redevance pour copie privée destinée à préserver les auteurs des pertes qu’ils enregistraient. Selon ces thèses, les progrès technologiques actuels seraient ainsi la clé permettant de supprimer définitivement l’exception de copie privée et donc d’interdire le P2P ou de le contrôler.
En effet, si la numérisation des œuvres facilite leur reproduction, elle permet aussi d’identifier et de limiter les copies numériques grâce aux techniques de chiffrement dont l’utilisation sous le terme de « mesures techniques » est désormais protégée au niveau européen et bientôt au niveau national [6]. Il faudrait donc revenir sur des exceptions au droit d’auteur qui n’auraient été consenties que sous l’emprise de la nécessité et qui n’apparaîtraient plus de mise dans un environnement numérique [7].
L’interdiction du P2P et de la copie privée est une solution techniquement envisageable pour peu que les lois sur le droit d’auteur soient renforcées et interprétées avec une plus grande sévérité qu’aujourd’hui [8]. C’est en tout cas le chemin qui semble actuellement suivi par les pouvoirs publics puisque le Conseil supérieur de la propriété littéraire et artistique est résolument enclin à prendre les mesures législatives nécessaires pour favoriser le développement des « mesures techniques » permettant indirectement de contrôler la copie privée et le P2P [9]. Le projet de loi de transposition de la directive du 22 mai 2001 marque ainsi une évolution vers la généralisation des systèmes de Digital Rights Management qui empêcheraient l’échange, voire l’utilisation, des œuvres en protégeant juridiquement les solutions de cryptage utilisées par les éditeurs.
Mais la généralisation des DRM passe nécessairement par la modification des protocoles sur lesquels repose Internet.
- b. La nécessaire modification des protocoles d’Internet
Aujourd’hui, les protocoles qui assurent le fonctionnement d’Internet ne permettent pas de contrôler ses utilisateurs. Ils bénéficient en effet de 3 caractéristiques qui assurent la liberté des internautes :
ces protocoles sont libres : il est possible à tout un chacun d’étudier leur fonctionnement et de le reproduire ;
ces protocoles ne font pas de discrimination dans les contenus : ils autorisent la transmission de n’importe quelles données, y compris certaines pour lesquelles ils n’avaient pas été conçus a l’origine ;
ces protocoles ne font pas de discrimination entre les personnes : ils permettent l’accès de tous au réseau.
-
- (i) La disparition de la capacité d’innovation offerte par Internet
Ces caractéristiques empêchent donc le contrôle du réseau mais ils sont surtout la source de son extraordinaire développement et de la généralisation de l’usage actuel d’Internet.
En effet, leur fonctionnement étant ouvert à l’étude pour transporter n’importe quelles données vers n’importe qui, de nouveaux usages du réseau ont vu le jour au fur et à mesure que ses utilisateurs s’appropriaient ces protocoles.
Libérés du monde réel, les internautes ont alors pu développer des activités nouvelles différentes de celles pour lesquelles le réseau avait été initialement conçu. De même, ils ont pu assurer la pérennité du réseau en l’adaptant pas à pas aux nouvelles technologies de transmission, aux nouveaux types de contenus disponibles et aux nouveaux usagers [10].
Les protocoles libres et non discriminatoires d’Internet ont donc d’abord favorisé l’innovation de telle sorte qu’il est aujourd’hui possible de télécharger un album de musique en quelques secondes ou qu’il existe des sites d’assistance éducative bénévole et non pas seulement des serveurs militaires ou commerciaux. C’est également le caractère libre de ces protocoles qui a creusé l’écart entre Internet et le Minitel en permettant une évolution technologique continue [11].
Il faut donc préserver cette liberté si l’on veut protéger cette faculté d’innovation et si l’on souhaite que de nouveaux usages favorables au public continuent de voir le jour. Internet n’est pas naturellement enclin à favoriser l’innovation. C’est le code informatique sur lequel il est bâti qui favorise cette liberté. Ce que l’architecture d’Internet permet aujourd’hui, elle pourrait le reprendre demain.
-
- (ii) La désolation de la connaissance
En pratique, la prise de contrôle d’Internet se ferait donc en modifiant les protocoles qui le sous-tendent pour empêcher leur étude et leur piratage, filtrer les contenus qui y transitent et identifier les utilisateurs qui y accèdent. Internet deviendrait alors un réseau cloisonné en différents éléments dont certains resteraient non seulement interdits à certains usagers, mais même inconnus. En effet, comment les internautes pourraient-ils accéder à des données dont ils ignorent même qu’elles existent.
Il suffit, par exemple, d’imaginer qu’un fournisseur d’accès à Internet utilise un autre protocole que TCP/IP pour transporter les données de ses utilisateurs. Ceux-ci devraient alors accéder au reste du réseau par des passerelles ouvertes par le FAI qui serait désormais en position de décider de ne les laisser accéder qu’à certaines parties d’Internet en fonction du tarif de leur abonnement, voire en fonction de ses intérêts personnels.
Il s’agirait en fait de réduire la surface visible d’Internet bien plus que de la censurer. Un tel contrôle se situe bien au-delà du légitime contrôle parental qui interdit l’accès à un site en laissant tout de même l’utilisateur conscient de son existence, il mettrait les utilisateurs en plein cœur de 1984 où les mots dérangeant le régime était simplement supprimés de la langue officielle.
Cette attitude s’apparente à la suppression totalitaire de l’espace extérieur des individus conduisant à transformer les hommes en un vulgaire troupeau humain [12]. La tolérance autant que le pluralisme ne sont pas seulement des impératifs moraux que l’on peut choisir d’intégrer au sein des normes juridiques comme le préconisait Ripert [13].
L’existence d’une liberté effective est une condition structurelle dont dépend la valeur de la connaissance. Le pluralisme est nécessaire non pas parce qu’il faut absolument que plusieurs points de vue s’expriment mais parce qu’il est la condition sine qua non pour que la vérité objective émerge. Seule peut passer pour vraie une information qui pouvait être démentie et qui ne l’a, de fait, pas été. C’est quand tout peut être dit que le fait que certaines choses soient dites et d’autres tues prend un sens logique pour la connaissance objective. Ce n’est d’ailleurs pas un hasard si les grecs ont simultanément inventé la science et la démocratie [14].
En définitive, cette forme de censure aboutirait essentiellement à décourager tout savoir et à arrêter le développement de la culture, non seulement en émoussant les talents mais aussi en empêchant et en mutilant les découvertes qui pourraient encore être faites [15].
- c. Les conséquences du contrôle du P2P
« Tous les biens sociaux primaires doivent être distribués également, à moins qu’une distribution inégale d’un de ces biens ne soit à l’avantage des moins favorisés ».
John Rawls, Théorie de la justice, 1971.
Si l’on replace le problème du contrôle du P2P comme une opposition entre le public et les auteurs ou plutôt entre le public et les éditeurs ; il est impossible de laisser ces derniers s’approprier une évolution technique bénéfique au public pour simplement protéger un modèle économique vieillissant fondé sur un système de monopole concédé par l’État pour favoriser des investissements qui ne sont plus nécessaires. La légitimité de leur démarche ne peut se mesurer qu’en acceptant de mettre leurs intérêts en balance avec ceux de la société.
-
- (i) Un contrôle contraire à l’intérêt du public
Économiquement, le P2P est une évolution technologique qui entraîne la disparition du coût de la reproduction des œuvres et du système de distribution échelonné entre l’auteur et le public. Ces deux étapes sont désormais assurées par les usagers eux-mêmes qui mutualisent leur propre espace de stockage, leur bande passante et leur puissance de calcul pour effectuer les opérations autrefois prises en charge par les éditeurs.
Les quelques artistes qui vivent de la reproduction de leurs œuvres et leurs éditeurs ne sont certes pas en mesure de réduire leurs coûts pour résister à cette concurrence inattendue mais, plutôt que d’essayer de protéger leur modèle économique par des interventions législatives, il peuvent essayer de développer de nouveaux systèmes pour tirer profit des évolutions technologiques.
C’est ainsi que certains d’entre eux développent maintenant leur activité de représentation et remplissent leurs concerts alors que leurs ventes de disques stagnent à un niveau extrêmement bas. De même, des écrivains comme Eric Flint n’hésitent pas à défendre un modèle de librairie gratuite où ils démontrent qu’il existe d’autres façons de diffuser la culture et d’en vivre [16]. Mais, si la diffusion peut être prise en charge par la société elle-même, il faut être capable d’apporter un service qui mérite un revenu.
-
- (ii) Un contrôle contraire à l’intérêt de l’industrie de la culture
Paradoxalement, le développement du P2P favorise naturellement l’intérêt du public pour les biens culturels et il incite à une plus grande consommation en permettant d’essayer avant d’acheter les œuvres qui correspondent le plus aux goûts personnels de chacun, en meilleure connaissance de cause. L’institut Forrester a très clairement démontré ce phénomène à travers son enquête intitulée « Downloads Save The Music Business ».
Ajoutons que l’interdiction ou le contrôle des réseaux P2P reviendrait, comme nous l’avons déjà vu, à refuser une solution technologiquement peu coûteuse pour contrôler les volumes croissants d’information qui circulent sur Internet. Sans P2P, il faudrait nécessairement, soit appauvrir les utilisateurs en réduisant la quantité d’information disponible sur le réseau, soit augmenter les capacités de traitement des serveurs dans des proportions extrêmement coûteuses.
-
- (iii) Un contrôle contraire à l’intérêt de la société
Au demeurant, chaque œuvre qui n’aura pas été vendue mais qui pourra être échangée rendra les usagers plus riches de ce qu’ils auraient dû payer. Ils pourront alors réinvestir ces sommes dans de nouveaux besoins sur le circuit économique. La disparition du coût de reproduction des œuvres numériques se traduit en fait par un enrichissement global de la société qui réinvestira utilement le travail qu’elle ne dépensera plus dans les données transportées par le réseau [17].
Qu’on pense seulement que les trois minutes d’une chanson accompagné de son air de guitare sont protégés pendant 70 ans après la mort de son auteur alors que l’investissement d’une entreprise qui aura nécessité plusieurs années de recherche et le travail de toute une équipe n’est protégé que 20 ans et encore, dans la limite des critères de l’INPI. On reste finalement étonné que la doctrine puisse considérer que la possibilité de diffuser de plus en plus, de mieux en mieux et de moins en moins cher soit une menace pour la société [18]. On imagine difficilement de tels arguments pour défendre les bénéfices de Peugeot si, demain, un inventeur génial mettait au point une machine capable de dupliquer gratuitement les voitures à l’infini.
-
- (iv) Un contrôle contraire à l’intérêt des individus
Comme le fait remarquer la synthèse du Forum des droits sur l’Internet, le P2P bénéficie d’une neutralité technologique qui devrait s’opposer à son interdiction puisqu’il est susceptible d’offrir de nombreuses applications pour les individus [19]. Pour s’assurer que ces usages n’entrent pas en conflit avec leurs prérogatives, on a vu que certains pensent qu’il serait légitime de surveiller la vie privée des internautes et de diminuer la surface visible d’Internet en fonction des droits dont ceux-ci se seraient acquittés [20]. Au-delà même des dangers liberticides évidents que présentent ces solutions [21], elles ne sont en fait que le premier pas vers la mise en place de Trusted Systems où les libertés actuelles de lire, d’échanger mais aussi de discuter où d’étudier la culture et l’information auront définitivement disparues [22]. C’est l’hypothèse où le développement des systèmes de Digital Rights Management assurerait finalement le contrôle absolu des ayants-droit sur le public et reviendrait non seulement à l’interdiction du P2P envisagée plus haut, mais aussi à un contrôle liberticide de la vie privée des usagers.
Heureusement, d’autres solutions sont possibles.
2. L’instauration d’une redevance
La redevance pour copie privée correspond à une solution équitable entre les intérêts des auteurs et ceux du public (i) mais, en tant que moyen terme, elle est combattue par les uns et par les autres (ii).
a. Principe de la redevance pour copie privée
Le Forum des droits sur l’Internet fait remarquer que de nombreux internautes sont favorables au système des droits d’auteur mais qu’ils ne veulent plus payer pour un service qu’ils estiment désormais inutile.
La rémunération pour copie privée est codifiée aux articles L-311-1 et suivants du Code de la propriété intellectuelle depuis la loi Lang de 1985 selon un mécanisme proche d’une licence légale. En effet, elle est aujourd’hui assise sur les ventes de supports vierges d’enregistrement avant d’être, ensuite, reversée aux titulaires de droit via des organisations représentatives. Son champ d’application était d’abord très limité mais elle a été successivement étendue aux supports numériques actuels et il est techniquement très simple d’imaginer l’appliquer d’une façon ou d’une autre aux internautes usagers de P2P, soit sur la base d’un forfait, soit sur celle d’une tarification en fonction de la quantité de données téléchargées par chaque utilisateur. La solution aurait l’avantage de respecter les libertés privées et de concilier les intérêts des auteurs et du public.
b. Remise en cause de la redevance pour copie privée
Le principe d’une redevance est pourtant autant remis en cause par le professionnel favorable à l’extension absolue du droit d’auteur et à la disparition de la copie privée que par les consommateurs qui la jugent inégalitaire et inefficace.
Du côté des éditeurs, la mise en place de DRM permettrait en effet d’empêcher toute copie. Ceux-ci souhaitent donc plutôt obtenir une protection légale des « mesures techniques » pour leur permettre de faire disparaître indirectement les exceptions au droit d’auteur et d’obtenir le contrôle absolu que ne leur offre pas la simple taxation.
Pour les défenseurs du public, l’idée d’une taxation remet en cause l’idée d’exception culturelle chère à la France pour qui la culture n’est pas une marchandise comme les autres [23]. Selon l’UFC-Que Choisir, les sociétés de gestion qui représentent les ayants-droit imposent aux consommateurs une définition contestable de la copie privée [24] qui débouche sur une logique inflationniste. Au surplus, on voudrait désormais que le consommateur paie à chaque utilisation sans qu’aucune garantie n’existe quand à la bonne utilisation des fonds ainsi récoltés.
Les sommes obtenues sont estimées à plus de 150 millions d’euros pour 2003 et beaucoup plus après la mise en place de la taxation des disques durs. Pourtant, aucun contrôle ne permet sérieusement de gérer leur utilisation [25]. Dès 1997, alors que les fonds récoltés n’étaient pas encore si importants, une mission de l’inspection générale des finances avait déjà relevé de nombreuses irrégularités commises par l’Adami [26]. L’association ne se gênait pas, par exemple, pour attribuer des aides à des bénéficiaires qui étaient aussi ses propres dirigeants. Plutôt que de favoriser la création, le lancement d’œuvres nouvelles et l’emploi dans la profession comme le préconisait le rapporteur de la loi Lang, Alain Richard, la redevance semble ouvrir la porte à de nombreux abus.
Dans le même esprit, la distribution des revenus de la redevance au prorata des œuvres déjà vendues n’a guère d’autre effet que de bénéficier aux artistes les mieux payés sans remplir aucun rôle moteur pour l’industrie.
D’autre part, la répartition ainsi choisie est parfois injuste. Ainsi, le Conseil d’Etat n’a pas hésité à exclure les producteurs de logiciels de loisirs du bénéfice de la rémunération pour copie privée [27]. Il établit de la sorte une discrimination purement arbitraire de sorte que le contrôle de la rémunération permet de favoriser indirectement un secteur culturel au détriment d’un autre sans aucun fondement économique ou juridique [28].
Enfin, une redevance prendrait difficilement en compte les consommateurs qui utilisent ces supports pour leur usage personnel ou professionnel et non pas pour enregistrer les œuvres d’autres auteurs.
L’idée d’une taxation des réseaux semble être la solution la plus respectueuse des intérêts de chacun mais les difficiles questions éthiques et morales qu’elle amène impliquent nécessairement la reconnaissance corrélative d’un véritable droit du public à coté du classique droit des auteurs.
3. Vers la nécessaire reconnaissance d’un droit du public
« C’est une expérience éternelle, que tout homme qui a du pouvoir est porté à en abuser... il faut que par la disposition des choses, le pouvoir arrête le pouvoir ».
Montesquieu, L’Esprit des Lois, XI, IV.
En définitive, les éditeurs culturels se retrouvent aujourd’hui face au même problème subi par les éditeurs de logiciels quand les micro-ordinateurs sont devenus suffisamment puissants pour que les utilisateurs puissent reproduire eux-mêmes leurs logiciels. De même que l’industrie informatique a sensiblement évolué vers une industrie de services [29], il semble aujourd’hui nécessaire de changer le modèle économique de la culture et de ne plus baser les revenus des artistes sur la reproduction payante de leurs œuvres.
Mais le projet de loi de transposition de la directive du 22 mai 2001 marque une évolution vers la généralisation des systèmes de DRM pour parer définitivement au P2P et à la copie privée sans réaliser que les mesures techniques sont une menace bien plus grande pour la société que la baisse du coût des biens culturels. Depuis quatre ans que le DMCA [30] a été introduit aux USA, iln’apas protégé les intérêts des auteurs mais il a, en revanche, servi à asseoir la domination durable des majors et des éditeurs. D’une part, ceux-ci se basent maintenant sur ses dispositions pour asseoir des poursuites généralisées contre les utilisateurs de réseaux P2P dans l’espoir de créer une sorte de panique auprès des internautes qui bénéficient pourtant de la protection du « fair use » et qui ne devraient pas être inquiétés. D’autre part, la généralisation des DRM se traduit par des dommages collatéraux considérables en permettant de créer des monopoles de fait qui constituent une menace pour la concurrence et la culture [31].
Heureusement, de nombreuses voix s’élèvent pour empêcher cette évolution et imposer la reconnaissance d’alternatives à un droit trop absolu de l’auteur sur ses créations (contre la transposition de la directive du 22 mai 2001) qui ressortirait de la même logique que l’appropriation du vivant. Le droit reconnaît aujourd’hui le pouvoir des auteurs, il faut donc nécessairement reconnaître la part de pouvoir qui revient à la société.
Cela peut être l’objectif d’un législateur consciencieux mais, si tel n’est pas le cas, le droit du public trouvera sans nul doute son chemin à travers l’intervention des tribunaux qui bénéficient de l’aide de différents outils juridiques. On peut imaginer, par exemple, le recours à la théorie de l’abus de droit qui prévient l’utilisation d’une loi dans les hypothèses où elle serait détournée de son objectif social [32]. Justement, elle connaît aujourd’hui une importance croissante aussi bien dans la théorie générale juridique [33] que dans des droits spécialisés comme le droit de la concurrence [34] qui sont sans doute plus proches du droit de la propriété littéraire et artistique qu’on ne le penserait au premier abord.
Même si elle s’avère moins médiatique et plus lente, l’intervention des tribunaux est parfois la seule façon de gérer l’apparition de nouveaux conflits quand ceux-ci n’ont jamais été imaginés auparavant. Or, qui peut réellement prétendre que la disparition du coût de la reproduction des œuvres artistiques et l’apparition de nouveaux modèles de communication plus efficaces avait été prévue, des 1957, par le législateur du Code de la propriété intellectuelle ?
Le coût de la reproduction et de la diffusion des œuvres artistiques est désormais assuré par les utilisateurs eux-mêmes qui sont en position de mutualiser leurs capacités pour s’improviser éditeurs. Le droit moral de l’auteur reste un droit absolu mais il est temps de remettre en cause les impératifs qui ont amené le législateur à accorder aux auteurs un monopole sur la reproduction de leurs œuvres.
En quelque sorte, la question posée par le P2P n’est pas de savoir dans quelle société nous voulons vivre mais de comprendre dans quelle société nous vivons depuis toujours. Les mécanismes qui gouvernent notre évolution culturelle justifient sans doute la remise en cause de solutions abstraites héritées du passé et aujourd’hui obsolètes.