Quantcast
Channel: Platforms – IPdigIT
Viewing all 57 articles
Browse latest View live

Spirale destructrice sur une plateforme à deux versants

$
0
0

The Bulletin, magazine des arts, de la culture et de l’actualité, s’adresse à la communauté internationale de Bruxelles. Le 10 juillet 2008, le magazine faisait état dans ses colonnes de la perquisition effectuée au quatrième étage de l’hôtel Conrad, où avaient résidé des membres de la famille royale des Emirats Arabes Unis. En cause, des soupçons de maltraitance du personnel ancillaire de cette famille. Jugeant la publication de cette nouvelle « contraire à l’éthique », le manager de l’hôtel annula son abonnement au magazine et fut vite imité par deux autres hôtels bruxellois du même groupe (voir ici l’article en question et la réaction de la rédaction de The Bulletin).

A première vue, il s’agissait là d’un événement mineur pour le magazine. En effet, les trois hôtels diffusaient ensemble quelque 700 exemplaires du magazine, à peine plus de 5% de la diffusion totale. Mais en voyant The Bulletin (comme tout support de presse) comme une plateforme à deux versants, les économistes ont pu entrevoir des conséquences potentiellement plus néfastes. Pour comprendre pourquoi, lisez l’article complet ici.

(Paul Belleflamme)


Peut-on se faire de l’argent avec du gratuit?

$
0
0

En 2005, 580 millions de dollars ont été déboursés pour le rachat de MySpace. En 2007, Google a payé 1,65 milliards de dollars pour acquérir YouTube. En 2007 toujours, Microsoft a investi 240 millions de dollars pour obtenir une participation minoritaire dans Facebook, alors implicitement valorisé à 15 milliards de dollars. L’année suivante, Microsoft a offert de racheter Yahoo pour 44,6 milliards de dollars. Quand on se rend compte que ces entreprises de l’Internet proposent à leurs consommateurs des services essentiellement gratuits, on est en droit de se demander comment elles ont pu susciter de telles convoitises et mener à de telles valorisations boursières ? Comme leurs acquéreurs peuvent difficilement être taxés de stupidité ou d’optimisme béat, il faut croire qu’ils sont convaincus de leur capacité à gagner de l’argent avec du gratuit.

Dans un article publié il y a quelques mois dans la revue Economie et Management, j’essaye d’expliquer les différentes logiques économiques qui sous-tendent les modèles d’affaires basés sur la gratuité. Quatre concepts théoriques sont mobilisés: la complémentarité entre biens et services, les coûts de changement, les effets de réseau et les marchés multifaces. Si cette analyse vous intéresse, je vous invite à consulter la présentation powerpoint que j’ai tirée de cet article et qui en résume et illustre le contenu. Sur le même sujet, je vous conseille aussi l’article que Xavier Wauthy a écrit pour Regards Economiques en 2008 (No free lunch sur le Web 2.0).

(Paul Belleflamme)

David (Apple) est devenu Goliath et intéresse les autorités de la concurrence.

$
0
0

La compagnie Apple a construit son image en opposition à celle de Microsoft. On l’a souvent présenté comme David luttant contre Goliath.  Microsoft-Goliath, a fait l’objet de poursuites par les autorités de concurrence américaines et européennes qui l’accusaient d’abus de position dominante.

Aujourd’hui David-Apple a grandi et est devenu un acteur dominant. Ces derniers temps Apple a fait à son tour l’objet d’interrogation s quant aux respects du droit de la concurrence

1. En 2004, l’iPod, iTunes et les DRM

Quand Apple a lancé simultanément les baladeurs numériques Ipod et la plateforme de téléchargement iTunes, il avait assorti les morceaux de musiques de mesures techniques de protection de manière à ce qu’il y ait un lien exclusif entre les deux: les morceaux de musiques ne pouvaient être lus que sur un iPod et un iPod ne pouvait lire que des morceaux en provenance d’iTunes. Comme Apple a très rapidement occupé une place dominante tant sur le marché des plateformes (iTunes) et des lecteurs (iPod), la plateforme VirginMega a lancé en 2004 une plainte devant le Conseil de la concurrence français pour abus de position dominante demandant que les morceaux de musiques téléchargés sur iTunes puissent être lus sur d’autres lecteurs.

Le Conseil de la Concurrence n’a pas donné raison à VirginMega. Depuis Apple a toutefois retiré ses mesures de protection.

2. En 2010, les  licences et conditions pour le développement d’applications pour iPhone ou iPad

L’année passée, les autorités américaines et européennes de concurrence ont ouvert une enquête préliminaire sur les applications disponibles sur l’iPhone et l’iPad. Ce qui est en cause c’est toute la stratégie d’Apple fondée sur un contrôle total. Plus précisément, il s’agit des règles imposées aux développeurs d’applications pour l’iPhone et l’iPad. Apple exige que les applications soient élaborées avec ses propres outils de programmation, pas avec des outils compatibles avec les téléphones de la concurrence.

3.  En 2011, les conditions d’abonnement à un  contenu digital (journaux, magasines et musiques) via une application pour iPhone, iPad ou iPod.

Cette année, les autorités de concurrence examinent les termes imposés par Apple aux éditeurs de journaux, magasins et musique  qui veulent que leur contenu soit accessible sur un iPhone, un iPad ou un iPod et qui ont développé une application (“app”) à cet effet. S’ils souhaitent que l’application soit reconnue par ces lecteurs, Apple exige (1) que les abonnements soit vendus sur iTunes, (2) de prendre une commission de 30% (3) que les abonnements ne soient pas vendus moins chers sur d’autres support.

Au-delà de ces questions sur les pratiques d’Apple, comment voyez-vous les rapports entre  propriété intellectuelle et droit de la concurrence ?

En termes juridiques, essayer de voir comment la propriété intellectuelle vient s’articuler avec les articles 101 et 102 du Traité (TFUE)? Quelles sont les usages des Droits de propriété intellectuelle susceptibles de rentrer en conflit avec le droit de la concurrence ?

En termes économiques, un  droit a la réputation de créer des monopoles, le second de chercher à les détruire. Ces deux droits vous semble-t-il en opposition ou conciliables? En cas de conflit, quelle logique doit l’emporter?

YouTube: quelle responsabilité pour le site de partage de vidéos?

$
0
0

A plusieurs reprises, la plateforme de partage de vidéos en ligne YouTube a été attaquée en justice pour atteinte au droit d’auteur. Sur YouTube (comme sur d’autres plateformes de “user-generated content”), on retrouve en effet des films ou séries TV que les internautes ont mis en ligne sans autorisation des ayants droit.

Qu’est-ce que l’hébergeur de ces contenus illicitement postés par les usagers doit faire s’il veut ne pas être tenu responsable? Le chapitre III de mon livre Quand Google défie le droit faisait le point sur quelques procès relatifs à la responsabilité de ces plateformes. De nouvelles décisions ont été rendues depuis lors. Notamment deux décisions impliquant YouTube, l’une en France, l’autre aux Etats-Unis.

La décision du tribunal de grande instance de Paris du 28 avril 2011, dans une affaire SPPF c. YouTube, donne gain de cause à YouTube. Pour le tribunal, la plateforme n’est pas responsable si des contenus déjà notifiés par les ayants droit réapparaissent sur le site. Du moins si l’adresse précise de ces contenus n’a pas été communiquée par les ayants droit. En l’espèce, les représentants des ayants droit avaient apparemment refusé d’utiliser l’outil de “content identification” que leur proposait YouTube.

Le méga-procès qui oppose Viacom à YouTube aux Etats-Unis a connu un nouveau rebondissement. Le 5 avril 2012, la Cour d’appel du 2d Circuit a partiellement réformé la décision en première instance et renvoyé l’affaire devant un tribunal de district. Le juge vers qui l’affaire est renvoyée devra vérifier si les responsables de YouTube savaient que des clips particulier de Viacom étaient illicitement mis en ligne et n’avaient pas volontairement fermé les yeux sur les atteintes (voir la décision ici).

Il peut être intéressant de refaire le point sur ce qui est demandé des hébergeurs de vidéos: à partir de quand peuvent-ils être tenus indirectement responsables pour les atteintes directement commises par les usagers des plateformes? La question est  assez juridique. Qui se lance pour répondre à cette demande?

 

Gouvernance Facebook: un vote pour abroger le droit de vote

$
0
0

(cette chronique est parue, en version légèrement modifiée, dans La Libre Entreprise du 1er décembre 2012)

Si vous êtes un utilisateur de Facebook, vous avez sans doute reçu un courriel récemment vous faisant part (dans une austère prose juridique) d’une proposition de modification de la gouvernance du réseau social. Vous l’ignoriez peut être, mais l’actuelle « Déclaration des droits et responsabilités » prévoit qu’une proposition de réforme des conditions d’utilisation peut être soumise au vote des utilisateurs, si ceux-ci l’exigent. C’est cette disposition que Facebook prévoit d’abroger, purement et simplement.

Bas les masques ? Rien d’étonnant, diront certains. Facebook est une entreprise privée, qui n’a pas à se soucier d’autre chose que de faire du profit. Et depuis qu’elle est cotée en bourse, elle voit d’un mauvais œil toute publicité négative qui pourrait lui attirer, en plus de la morgue des investisseurs, l’attention accrue de diverses autorités de protection de la vie privée.

L’entreprise américaine garde en effet un mauvais souvenir de la dernière modification de ses conditions d’utilisation, en juin dernier. Max Schrems, un étudiant autrichien, avait alors profité de la procédure de vote pour mener un large campagne de fronde en faveur d’une meilleure protection des données des utilisateurs (http://www.ourpolicy.org). Mais si les 7000 soutiens nécessaires pour exiger un vote ont été facilement atteints, parvenir à réunir le quorum de vote de 30% s’est avéré pratiquement impossible : sur un réseau comme Facebook regroupant 1 milliard d’utilisateurs, il aurait fallu réunir 333 millions de voix. Soit davantage que l’entièreté de la population des États-Unis (308 millions).

Pourquoi Facebook veut-il supprimer ce droit de vote des utilisateurs, de toute façon inoffensif ? Même si les utilisateurs ont peu de chance de réussir à exercer leur veto, la compagnie n’avait sans doute pas prévu que certains se servent de cette tribune pour promouvoir leurs revendications alternatives, ni qu’ils soient soutenus par des centaines de milliers d’utilisateurs.

Les responsables de Facebook ont raison de s’inquiéter de tels mouvements. Contrairement à d’autres entreprises comme Apple ou Google, Facebook semble ne jamais avoir réussi à conquérir le cœur de ses utilisateurs. Ceux-ci font preuve d’une grande méfiance, prompts à propager les dernières nouvelles (vraies ou fausses) sur tel ou tel changement de politique concernant la vie privée. La rapidité avec laquelle s’est propagée la rumeur du « bug Facebook » (qui aurait prétendument rendu public des messages privés d’utilisateurs) en est un symptôme.

Dès lors, Facebook préfère sans doute se priver du vernis démocratique que lui conférait ce droit de vote aux utilisateurs, plutôt que de risquer d’encourager de nouveaux mouvements de grogne. On pourrait regretter, comme cet étudiant autrichien, que Facebook ne soit pas à la hauteur de sa responsabilité sociale. N’a-t-elle pas des devoirs particuliers, vu le contrôle qu’elle exerce sur une part croissante des communications mondiales, et sur les données personnelles de ses utilisateurs ?

On pourrait aussi considérer que la nature du service proposé par Facebook est trop important pour rester sous le contrôle exclusif d’une compagnie. Les réseaux sociaux concentrent aujourd’hui une grande partie de notre activité en ligne. Veut-on vraiment en confier l’unique clé à Mark Zuckerberg ? Ce n’est pas sur cette logique qu’Internet a été fondé. L’e-mail, par exemple, est un protocole ouvert : n’importe qui peut proposer des services utilisant le protocole e-mail, et tous les utilisateurs peuvent s’échanger des messages, quel que soit leur fournisseur de service. N’est-il pas temps de passer, dans la foulée d’initiatives comme Diaspora* (http://joindiaspora.com), à une plateforme de réseau social qui soit ouverte et interopérable ?

Le piquant dans cette affaire de gouvernance Facebook est qu’en vertu des règles actuelles, la suppression du droit de vote des utilisateurs doit être soumise… au vote des utilisateurs. Au moment d’écrire ces lignes, la proposition a attiré 87% de votes négatif, avec un nombre de participants autour de 600 000 utilisateurs. Un taux de participation supérieur au vote de juin, mais toujours loin des 333 millions d’utilisateurs requis pour que le vote soit liant. Et comme le vote s’achève ce lundi 10, on peut déjà présager que le grand soir de la démocratie Facebook n’aura probablement pas lieu. Néanmoins, 600 000 personnes, ce serait sans doute un bon début pour un nouveau réseau social…

Si vous souhaitez poser un geste en participant au vote, rendez-vous sur http://www.facebook.com/fbsitegovernance, et tâchez de trouver le lien vers la page de vote (vous pouvez également utiliser ce lien direct).

La nouvelle Loi Télécom conduira-t-elle à une baisse des prix ?

$
0
0

(Cet article combine deux articles initialement publiés sur le site de Regards Economiques.)

Depuis le 1er octobre dernier, une nouvelle loi « Télécom » transpose dans le droit belge une série de directives européennes visant à mieux protéger les consommateurs sur le marché des télécommunications. Une des mesures phares de cette loi est la possibilité qui est désormais donnée aux consommateurs de changer d’opérateur (téléphonie fixe ou mobile, Internet et télévision) sans frais après seulement six mois de contrat. Une autre mesure consiste à faciliter la comparaison entre les offres tarifaires des différents opérateurs (ainsi, pour ce qui est de l’Internet, les opérateurs doivent désormais afficher la vitesse de connexion réelle et non plus maximale comme auparavant).

Les pénalités encourues lorsqu’un contrat est résilié avant son terme ou la difficulté de comparer des plans tarifaires sont des exemples de « coûts de changement ». Ces coûts résultent, en général, d’un investissement que vous réalisez pour le produit ou le service d’un vendeur particulier et dont vous ne pouvez pas tirer avantage si vous changez de vendeur. Pensez, par exemple, au temps qu’il vous a fallu pour apprendre à vous servir d’un certain logiciel, ou à la relation de confiance que vous avez lentement bâtie avec votre dentiste, ou encore aux habitudes que vous avez acquises à l’utilisation de tel ou tel produit. Il est fort probable que vous allez perdre tous ces bénéfices si vous décidez de changer de vendeur ou de prestataire de service.

Les coûts de changement vous rendent donc prêt à payer plus cher pour ne pas avoir à « changer de crèmerie ». Il est clair que le « crémier » auquel vous êtes lié s’en frotte les mains ; il peut en effet augmenter ses prix sans risquer de vous voir passer à la concurrence (il faut juste que la différence de prix ne dépasse pas vos coûts de changement). En termes plus techniques, les coûts de changement augmentent le pouvoir de monopole des firmes, c’est-à-dire leur capacité à augmenter les prix.

La nouvelle loi télécom apparaît donc comme une bonne nouvelle pour les consommateurs puisqu’en réduisant les coûts de changement, elle contribue à éroder le pouvoir de monopole des opérateurs ou, ce qui revient au même, à intensifier la concurrence. On devrait donc s’attendre à voir le niveau des prix baisser sur le marché des télécommunications.

Source: www.meilleurtarif.be

Malheureusement, les choses ne sont pas aussi claires. Pour comprendre pourquoi, il faut d’abord s’entendre sur ce que « prix » et « concurrence » recouvrent exactement dans les situations où les coûts de changement sont importants.

Comme illustré ci-dessus, les coûts de changement amènent les consommateurs à vouloir coordonner leurs choix de consommation dans le temps. Ils comprennent en effet que le choix qu’ils posent aujourd’hui a un impact sur les possibilités de choix qui leur seront ouvertes demain. En particulier, ils anticipent qu’une fois liés à un vendeur, ils seront, pour ainsi dire, à sa merci vu que celui-ci pourra élever ses prix en y incluant les coûts de changement. Les consommateurs réfléchiront donc à deux fois avant de s’engager dans une relation commerciale : craignant le « bâton » que constituent des prix futurs plus élevés, ils exigeront aujourd’hui une « carotte » pour accepter de se lier à un vendeur. Des prix d’entrée avantageux, un cadeau substantiel, la gratuité temporaire d’une partie des services, … sont autant de « carottes » que proposent les vendeurs (voir ici un exemple de « carotte » offerte en décembre 2012 par un opérateur de téléphonie mobile).

C’est donc une séquence de prix (et non un prix à un moment donné du temps) qui importe pour le consommateur. Généralement, les prix seront faibles au début de la relation commerciale et élevés par la suite. De la même manière, la concurrence doit s’apprécier sur tout l’horizon de temps. Nous avons déjà montré que la concurrence est réduite une fois que les consommateurs ont décidé de se lier à un certain vendeur. Mais il ne faut pas négliger la concurrence qui se porte sur les consommateurs qui ne sont encore liés à aucun vendeur. Et cette concurrence est susceptible d’être féroce ! En effet, plus le profit que l’on peut retirer d’un consommateur est élevé (et c’est le cas quand les coûts de changement sont présents), plus il y a de raisons de se battre pour attirer ce consommateur.

Pour résumer, on peut dire qu’en présence de coûts de changement, la concurrence est forte ex ante mais est faible ex post. Les deux allant toujours en sens inverse, il faut s’attendre à des effets contrastés pour la nouvelle loi Télécom : en facilitant le changement d’opérateurs, la loi intensifie la concurrence ex post mais elle réduit aussi, inévitablement, la concurrence ex ante, comme semblent l’indiquer les déclarations de Didier Bellens (patron de Belgacom) parues dans Le Soir du 30 janvier 2013 :

[Didier Bellens] s’en est pris également à la nouvelle « loi télécoms », récemment votée au Parlement. Parmi différentes dispositions, on y trouve la possibilité, pour le consommateur, de mettre fin à un contrat avec son opérateur au bout de six mois alors que jusqu’à présent, de nombreuses conditions contractuelles le liaient souvent pour deux ans. (…) Belgacom menace en effet de mettre un terme à une série de services souvent prestés gratuitement à titre de geste commercial, comme les frais d’installation. « Si l’on ne peut pas garder un certain temps le client sous contrat, nous aurons du mal à justifier cette gratuité. »

Pour savoir si, au bout du compte, les consommateurs sont gagnants ou non, il faut tenter d’estimer l’importance respective de ces deux forces contradictoires. Cette tâche est ardue parce qu’une part, les données ne sont pas facile à collecter et que d’autre part, le traitement de ces données pose des problèmes économétriques complexes (pour plus de détails, voir l’étude menée en 2006 par l’Office of Fair Trading au Royaume-Uni).

Plusieurs auteurs ont récemment cherché à estimer l’ampleur des coûts de changement, et de leurs effets sur les prix, dans le secteur des télécommunications. Ainsi, Epling (2002) étudie la concurrence sur le marché de la téléphonie longue distance aux Etats-Unis après 1996 ; elle montre que les consommateurs de ces services diffèrent dans leurs coûts de changement et que ceux qui ont des coûts de changement élevés paient plus cher. Viard (2005) analyse l’impact de l’introduction de la portabilité des numéros pour les numéros verts aux Etats-Unis (qui est censée réduire les coûts de changement) ; il trouve que si les firmes ne sont pas en mesure de faire payer des prix différents aux consommateurs déjà liés et aux nouveaux consommateurs, alors la réduction des coûts de changement peut avoir un effet ambigu sur les prix. Kitano et Ohashi (2011) se penchent aussi sur les effets de la portabilité des numéros mais cette fois pour la téléphonie mobile au Japon en 2006 ; ils estiment que la portabilité des numéros a réduit les coûts de changement de 18% et a accru la fraction de consommateurs changeant d’opérateur de 2,6%. Enfin, Pereira et Grzybowski (2011) analysent le marché de la téléphonie mobile au Portugal et trouvent que la demande y est élastique et que les coûts de changement y sont élevés ; ils estiment aussi que si les coûts de changement étaient réduits à néant, le surplus annuel des consommateurs augmenterait de 44,7%.

Bref, les études passées ne nous aident guère pour prédire si les prix des télécoms vont baisser chez nous sous l’effet de la nouvelle loi. Ce qui semble clair, cependant, c’est que les opérateurs seront sous pression s’ils observent que leur clientèle se laisse plus facilement séduire par les offres concurrentes. Ce sont donc les consommateurs qui tiennent, en quelque sorte, leur avenir entre leurs mains. En changeant plus, ils intensifieront la concurrence et obtiendront, à terme, de meilleurs prix. Ce qui se passe actuellement sur le marché de la distribution d’énergie devrait nous conforter dans cette vision. Electrabel a en effet annoncé en décembre 2012 une baisse substantielle de ses tarifs et on ne peut manquer d’associer cette décision à l’érosion récente de sa clientèle (un peu moins de 10% de clients perdus en 2012 suite, notamment, à une meilleure comparabilité des prix).

 

 

Revendre des fichiers musicaux de “seconde main” par l’entremise de ReDigi: licite ou pas?

$
0
0

Bannière apparaissant sur le site www.redigi.comLa société ReDigi (www.redigi.com), qui a lancé son service en 2011, prétend être “The World’s First Pre-Owned Digital Marketplace”. Elle se présente comme “a free cloud service that allows you to sell your legally purchased digital music“.  Le prix minimum de revente pour les fichiers “licitement acquis” semble alléchant: $0,49, donc 50%, plus ou moins, du prix standard d’un fichier musical vendu sur iTunes. Quand un usager achète un morceau sur ReDigi, 20% du prix vont au vendeur, 20% sont alloués à un fonds en faveur de l’artiste et ReDigi retient les 60% restants.

ReDigi se présente comme un site licite. Ainsi sans ses FAQ, Redigi explique en termes simples:

YES, ReDigi is Legal!  True, a few of us may look suspicious with our five o’clock shadows and a fashion sense that would scare your grandmother, but we are a law-abiding operation here at ReDigi.  This is something we take very seriously.

ReDigi brings the familiar process of selling a physical good (CD, book, Pink Cadillac, etc.) into the digital age.

To paint a simple picture, let’s use the Pink Cadillac as an example. You bought that outrageous gas-guzzler, you own the title, and by all means you have the right to sell it. However, once you hand over the keys, it’s no longer yours to drive.

The same concept applies to a pre-owned song you sell through ReDigi.  ReDigi has the technologies in place to ensure that once you sell a song, you no longer have access to it.  This is how ReDigi stays legit, and how you now have access to a new marketplace where rights long accepted in the physical world may now be applied to digital goods.

Aux Etats-Unis,  la District Court de New York (S.D.) a néanmoins considéré, dans une décision du 30 mars 2013 (ici), que le service de ReDigi n’est pas compatible avec les règles du droit d’auteur applicables (Section 106 du Copyright Act de 1976 conférant un droit de reproduction et de distribution et Section 109 définissant la règle dite du “first sale”).

Du point de vue du droit d’auteur, le service de ReDigi n’est donc pas comparable à un magasin de revente de disques de seconde main — car la règle du “first sale” qui s’applique hors ligne n’est pas applicable en ligne. Pour le juge de la District Court, c’est un autre objet matériel que le fichier acheté au départ qui se retrouve sur l’ordinateur de celui qui l’a téléchargé (downloadé) après l’avoir acheté “en seconde main”.

Le juge en première instance souligne qu’il faudrait modifier la loi sur le droit d’auteur pour rendre licite le service de ReDigi — le juge reconnaît au passage que l’affaire met en lumière “a fundamental clash over culture, policy and copyright law“. Expliquez au passage ce qu’il faut entendre par cet “affrontement fondamental”.

Selon la décision américaine, y a-t-il une atteinte directe ou indirecte au droit d’auteur? (Distinguez au passage ces diverses formes d’atteinte).

Le site de ReDigi annonce sa venue prochaine en Europe:

Coming soon to the EUDue to popular demand, European music lovera will soon be able to buy and sell pre-owned music on ReDigi“.

Peut-on s’attendre à une arrivée rapide de ce service en Europe?

Rien n’est sûr car les règles européennes (et belges) en matière de droit d’auteur pourraient gêner l’arrivée de ce service de revente de fichiers numériques.

Pour anticiper la venue de ReDigi en Europe, ce qui présuppose que le site soit licite, vous devrez examiner en détail l’arrêt Oracle c. UsedSoft rendu le 3 juillet 2012 par la Cour de justice de l’UE (C-128/11). Mais, dans votre analyse juridique, vous devrez sans doute encore tenir compte d’autres arrêts de la Cour de justice, par exemple les arrêts Copad c. Christian Dior (C-59/08) et Greenstar-Kanzi c. Jan Hustin (C-140/10). Nous avons déjà évoqué ces derniers arrêts ici et ici.

L’interaction entre la règle d’épuisement du droit d’auteur (telle qu’interprétée par la jurisprudence de la Cour de justice) et les dispositions contractuelles devra être prise en compte. Car, si l’on peut éventuellement plaider qu’il y a épuisement du droit, qu’en est-il de l’interdiction contractuelle de revendre qui pourrait être prévue dans le contract de licence/achat d’un fichier musical sur iTunes. Analysez donc les conditions générales d’un site comme iTunes (ou d’un autre site de musique en ligne à downloader). Il sera également utile de faire référence aux conditions générales (“terms of service”) proposées sur le site de ReDigi, en particulier les conditions à l’article 5. Qu’en pensez-vous?

 

Les corsaires de brevets

$
0
0

Ils mènent une guerre sans merci, en défendant les brevets d’autrui.

(Cet article a été publié dans La Libre Belgique du 5 août 2013. Il résume un billet plus complet, publié en anglais sur ce blog.)

Dans le monde impitoyable de la propriété intellectuelle et des technologies de l’information, on connaissait déjà les « trolls », ces petites entreprises dont le modèle d’affaires consiste à acheter des brevets et à attendre que d’autres firmes viennent les enfreindre. Si les firmes en question ont déjà investi massivement dans des technologies liées aux brevets incriminés, elles peuvent difficilement faire machine arrière et sont donc à la merci des trolls qui peuvent leur extorquer des sommes considérables. On se souvient, par exemple, des quelque 600 millions de dollars que NTP arracha à Blackberry en 2006. Il s’agit de la version moderne du hold-up.

Ce type de hold-up, quoique difficilement attaquable sur le plan légal, est plus délicat à défendre sur le plan moral. De peur d’être montrées du doigt par leurs pairs, la plupart des grandes firmes hésitent donc à se livrer elles-mêmes à cette pratique. Ce qui les retient également, c’est la crainte de contre-attaques. En effet, les firmes ont des portefeuilles de brevets tellement épais (par exemple dans le secteur des smartphones) que chacune est susceptible d’enfreindre les brevets de l’autre et inversement.

Une nouvelle tactique a toutefois récemment vu le jour pour contourner ces deux problèmes. Il s’agit, simplement, d’engager un troll en sous-main. On parle de « corsaires de brevets » pour désigner ces firmes. Les corsaires, comme Robert Surcouf ou Francis Drake, étaient en effet des pirates à qui des Etats « sous-traitaient » des opérations guerrières. On les armait et leur accordait le droit d’attaquer les navires battant pavillon d’Etats ennemis, ce qui permettait à l’Etat commanditaire d’harceler l’ennemi sans subir les risques et les coûts d’une bataille rangée officielle.

Par exemple, Microsoft et Nokia ont transféré plus de 2000 brevets à Mosaid, un troll notoire. Ericsson a fait de même avec Unwired Planet, un autre troll bien connu. Les trolls reçoivent pour mission de valoriser les brevets qu’ils ont reçus, une activité pour laquelle ils ont fait leurs preuves. De plus, comme il s’agit de petites firmes n’ayant aucune opération de production, elles sont insensibles aux menaces de contre-offensive. Ainsi, les grandes entreprises parviennent à valoriser agressivement leur propriété intellectuelle sans prêter le flanc ni aux contre-attaques ni à la critique.

Les nations européennes signèrent le Traité de Paris en 1856 pour abolir la pratique des navires corsaires. Peut-on espérer un tel accord de paix dans le monde des brevets ? Tout le monde en profiterait car les guerres de brevets nuisent immanquablement à l’innovation : ce sont des sommes colossales qui sont consacrées à des luttes juridiques stériles plutôt qu’aux efforts de recherche et développement. Malheureusement, on peut sincèrement douter qu’une telle paix soit conclue spontanément tant le nombre d’acteurs à convaincre et les enjeux économiques individuels sont élevés. Les corsaires de brevets risquent donc de sillonner les océans de la propriété intellectuelle pendant encore pas mal de temps.

 


Les plateformes MOOCs: menaces et opportunités pour l’enseignement universitaire

$
0
0

louvain-home-960x195

En quelques semaines seulement, l’Université catholique de Louvain (UCL) a vu près de 20.000 personnes s’inscrire à un de ses cours, intitulé Paradigms of Compter Programming; 15.000 autres se sont inscrites au cours International Human Rights et quelques milliers à deux autres cours. Ces inscriptions, ainsi que d’autres qui ne cessent d’arriver de jour en jour, proviennent de 170 pays différents. Vous aurez compris qu’une telle audience, venant d’horizons parfois très lointains, ne peut pas être accueillie sur un des campus de l’UCL; c’est donc à distance, via le site Internet LouvainX, que ces cours sont organisés. Vous imaginez également que si l’accès à ces cours n’était pas gratuit, il y aurait sans doute moins d’inscriptions. Il s’agit donc de «cours en ligne ouverts et massifs», mieux connus sous l’acronyme anglais MOOCs (qui se prononce ‘Moûks’ et qui signifie «Massive Open Online Courses»).

L’UCL a rejoint, comme beaucoup d’universités de par le monde, un mouvement qui est parti des Etats-Unis et qui fait beaucoup parler de lui pour le moment. De nouvelles méthodes pour dispenser l’enseignement supérieur à l’aide d’Internet sont testées à large échelle. Au centre de ce mouvement se retrouvent un certain nombre de plateformes Internet qui offrent une large palette de cours, développés en partenariat avec des universités ou directement par leurs propres forces. Les plateformes les plus connues sont Coursera (qui cumule actuellement 21 millions d’inscriptions à près de 600 cours), edX (consortium auquel participe l’UCL qui cumule près de 2,4 millions d’inscriptions) et Udacity (1,6 millions d’inscriptions).

On assiste donc, depuis quelques mois, à une vague d’investissements sans précédent dans le domaine de l’enseignement universitaire à distance. Les médias se sont vite emparés du phénomène et un large débat s’est engagé. Dans le numéro 110 de la revue Regards Economiques, Julien Jacqmin et moi désirons contribuer à ce débat en offrant une analyse économique du phénomène des plateformes MOOCs.

Notre analyse se centre sur deux questions. D’une part, nous nous interrogeons sur la rentabilité des plateformes qui organisent cette nouvelle forme d’enseignement; pour ce faire, nous envisageons différents modèles d’affaires. Selon nous, le modèle qui est susceptible de s’imposer à moyen terme est celui du partenariat entre plateformes MOOCs et universités, un modèle qui suppose que les MOOCs soient vus comme des compléments plutôt que comme des substituts à l’enseignement traditionnel. (Cette analyse s’appuie sur la série de billets que Julien Jacqmin a déjà publiés en anglais sur ce blog.)

D’autre part, nous cherchons à dégager des pistes d’action pour la politique publique en Fédération Wallonie-Bruxelles. Les pouvoirs publics doivent agir en tant que courroie de transmission d’information et d’aide financière. Cela peut avoir lieu via le développement d’un fond scientifique destiné aux recherches analysant les innovations pédagogiques et par la création d’une institution dont l’objectif premier est de s’assurer une dissémination la plus large possible des bonnes pratiques pédagogiques. Plus globalement, une revalorisation de l’enseignement (par rapport à la recherche) semble indispensable, par exemple en mettant en place un système encourageant les établissements d’enseignement supérieur à adopter de nouvelles méthodes pédagogiques, comme celles inspirées du développement des MOOCs.

Le texte complet de l’étude est accessible ici via le site de Regards Economiques.

En complément d’information, je vous conseille aussi cette infographie:

Please include attribution to OnlineSchools.org with this graphic.

How the MOOCs Will Make Money

Apple Inc. en justice: quand les droits intellectuels rencontrent le droit des contrats

$
0
0

apple1La vie des petites et grandes entreprises, en particulier de celles qui sont innovantes, est parsemée de difficultés et de différends. On les retrouve très souvent impliquées dans des litiges en justice. Apple Inc. fondée par l’iconique Steve Jobs en est un bel exemple (voir le billet ipdigit sur Steve Jobs ici). Une entrée spéciale sur Wikipedia s’intitule d’ailleurs Apple Inc. litigation. La liste des litiges établie par l’encyclopédie en ligne n’est pas exhaustive, mais elle donne une idée de l’importance des contentieux en matière de droits intellectuels: à côté des procès touchant au droit de la concurrence, au droit des consommateurs, au droit des pratiques déloyales et de la diffamation, la grande majorité des affaires recensées concernent les droits intellectuels, dont le droit des marques (trademarks), les secrets d’affaires (trade secrets), le droit d’auteur (copyright), le brevet (patent). (Dans la liste, on trouve aussi des affaires relevant de la matière des “trade dress”: il n’y a pas de traduction parfaite de “trade dress”, littéralement “habillage commercial”, qui recouvre entre autres les présentations de produits et les logos. Ce qui relève de la protection des “trade dress” aux Etats-Unis peut en principe être protégé par le droit de marque, par le droit des dessins et modèles ou par le droit de la concurrence déloyale en Europe).

Les actions pour atteinte à des droits de propriété intellectuelle relèvent du domaine extra-contractuel. L’une des caractéristiques des droits intellectuels est en effet de conférer des droits exclusifs valables erga omnes. Le droit des contrats n’est donc a priori pas pertinent lors de l’exercice en justice des droits intellectuels. En pratique, les choses sont différentes. Beaucoup des procès impliquant des droits intellectuels reposent aussi sur la matière contractuelle.

Pouvez-vous identifier, à partir de la liste Apple Inc. litigation (ou d’autres sources), un litige dans lequel Apple Inc. a été impliqué, soit comme demandeur, soit comme défendeur, et qui met en cause des questions relevant des droits intellectuels et du droit des contrats? Seules les disputes entre opérateurs économiques sont à prendre en compte, pas les litiges impliquant des consommateurs.

Merci d’expliquer comment l’aspect contractuel (par ex. l’interprétation d’un contrat) rejaillit sur la question de droit intellectuel posée dans le litige.

 

What can we expect from 2015 in the field of IP and ICT?

$
0
0

Josef_Jannings_EU_piece

Starting from this post I will try to regularly update you, IPdigIT readers, on the latest legislative developments taking place at the EU level in the field of Intellectual Property and ICT. This article should be considered an introduction and an incentive to further follow the blog. Each of the issues briefly described below, deserves at least a few separate posts!

2015  only just started, and it is already turning into an interesting and active year, at least for those who follow the developments in intellectual property and ICT. Not only the European Commission (EC), but also other institutions including the Parliament (EP) and the Court of Justice of the EU (CJEU) are actively working in these areas.  Let me guide you through the highlights of the months to come.

One of the most challenging and exciting projects in 2015 will definitely be the long awaited copyright reform. According to the EC’s Working Programme for 2015, the main executive body of the European Union is planning to finally modernise the existing copyright framework, in order to make it more ‘up to date’ and ‘fit for purpose’, to use the  language of the Brussels corridors.  When and how the EC is going to tackle the proposal still remains rather unclear. How difficult it is to accommodate the rising demands (just as the diverse opinions within the College of Commissioners), is proved by the delay of the White Paper, which was supposed to set the direction of future changes on the basis of the result of last year’s public consultation. According to the latest rumours, the reform will focus on ‘targeted measures’, being rather evolution than revolution. After such long preparatory period this is considered a disappointment by many . The exact timing has not been officially announced yet, however Gunther Oetinger, the commissioner in charge, has confirmed on Twitter that he is aiming to submit a legislative proposal this year.

We will try to update regularly on this issue, and until then I encourage you to read the posts of our other IPdigIT contributors, Eleonora Rosati (here) and Alain Strowel (here), who are writing extensively on this subject.

Some more details regarding the timing and the content of this particularly exciting proposal might be revealed at the meeting between the EC and the relevant stakeholders on the 24th of February. The workshop will be devoted to the digital economy at large and is strongly linked to the strategy on the future of the Digital Single Market, which is expected to be announced before this summer.

Apart from the copyright reform the EC is currently looking into diverse areas, ranging from consumer’s rights in online sales to possible regulation on the internet platforms.

2015 should not only see new proposals to be tabled, we might also hope that a few meaningful dossiers will be finalised. The telecom sector is impatiently looking at the outcome of the Council’s work on the so called Connected Continent. The major difficulty is how to define net neutrality. We will be updating on the developments on this  subject. Until then I encourage you to read other posts written earlier by Alain Strowel and myself.

Of course the ongoing review of the directive on the protection of individuals with regard to the processing of personal data and on the free movement of such data cannot be omitted.  The works are ongoing since 2012, when the EC published the proposal for a General Data Protection Regulation. By now we have seen some significant developments, including the position of the European Parliament. Just like in the copyright field, a vast number of interests are impacted by the changes in  data protection rules. The next move in this file belongs to the Council. As the topic certainly deserves an individual post, we will save the spicy details for a separate article.

On the table we also have the Network and Information Security Directive. With this proposal being part of the broader Cybersecurity Strategy, the Commission ‘aims to ensure a high common level of network and information security across the Union’. Being under discussion since 2013, this directive might have finally reached momentum, (sadly enough) due to the latest terrorist attacks and the yellow alert in various EU capitals.

Fans of digital economy will certainly not be bored in the upcoming months.

On top of the above mentioned copyright reform, there are other quite  interesting developments in the Intellectual Property ‘bubble’.

Definitely the closest from being finalised is the trade mark package. Despite the efforts of the Italian Presidency at the end of last year, it has been announced that the final trilogue (trilateral negotiations between the EP, EC and the Council) has been postponed and negotiations will resume under the Latvian leadership. Surprisingly, among the issues which seem to require ‘more time for consideration’, there are no hotly debated topics such as the treatment of goods in transit and small consignments. On those issues, the parties have already reached an agreement. According to rumours, a bone of contention is the surplus of OHIM’s budget. It would be very interesting to see whether the member states will be keen to let go their national interests so easily.

Another discussed subject is the proposal for a new directive on the protection of undisclosed know-how and business information (trade secrets) against their unlawful acquisition, use and disclosure. Trade secrets are not a category of intellectual property rights in the narrow sense. Nevertheless, the rules on protecting undisclosed information of a commercial value play a significant role in the IP management strategies (Paul Belleflamme has written about it here and here, also check Alain Strowel’s post). Moreover, trade secrects are an interesting tool for smaller companies, who do not have the necessary resources to apply for relatively expensive patent protection. In the current fragmented legal landscape the common framework to address misappropriations of trade secrets will therefore definitely be an added value to the European companies. Unlike in the majority of other dossiers, in this case the member states moved on very swiftly and adopted their position already in May 2014. We are now witnessing the process in the European Parliament, where the leading Legal Affairs Committee has just published its draft report. You will definitely read more about this file in the coming weeks.

And last but not least, the Unitary Patent saga is supposedly closer than ever to complete. The latest development concerns the court case on the Spanish actions against the EU Regulations on the unitary patent protection. Mr Yves Bot, the Advocate General of the Court of Justice, confirmed the link between the Unitary Patent Protection and the Unified Patent Court Agreement, by stressing that it would be contrary to the principles underlying the Regulations to apply them before the establishment of the Unified Patent Court. According to him Member States are obliged by the principle of sincere cooperation to ratify the Unified Patent Court Agreement. Until we see whether the CJEU will confirm this position, the opinion has definitely been considered as a boost to the implementation process, which nevertheless remains quite modest. Only 6 countries have ratified so far, among them only France out of the big three (next to Germany and the UK).

I hope this briefing will help you to better swim in this ocean of information, and  will make you impatiently wait for another post from the European bubble. Meanwhile feel free to post your suggestions or share your comments below.

 

Coverage of the HSBC scandal: a story of two-sided media bias?

$
0
0

On February 17, 2015, Peter Osborne, the Daily Telegraph’s chief political commentator, has resigned from the paper.  He explains his decision on open democracy.net and describes the straw that broke the camel’s back:

Late last year I set to work on a story about the international banking giant HSBC. Well-known British Muslims had received letters out of the blue from HSBC informing them that their accounts had been closed. No reason was given, and it was made plain that there was no possibility of appeal. “It’s like having your water cut off,” one victim told me.

When I submitted it for publication on the Telegraph website, I was at first told there would be no problem. When it was not published I made enquiries. I was fobbed off with excuses, then told there was a legal problem. When I asked the legal department, the lawyers were unaware of any difficulty. When I pushed the point, an executive took me aside and said that “there is a bit of an issue” with HSBC. Eventually I gave up in despair and offered the article to openDemocracy. It can be read here.

Source: BBC

Source: BBC

The question is whether Mr Osborne was told to drop the story because the newspaper was wary of not endangering a ‘bankable’ advertising contract (for elements of answer, see the rigorous analysis performed by Gordon Ramsay on the blog Policy Wonkers).

More generally, the question is: can advertising influence media coverage so as to create a ‘media bias’? I wrote a post last year where I used the theory of two-sided platforms (see, e.g., here and here) to shed some light on this issue. I reproduce parts of this post here.

The basic intuition is pretty clear: newspapers, magazines, radio stations, TV channels can be seen as two-sided platforms that link two groups of agents: on one side, we have the audience (readers, listeners or viewers) and on the other side, we have advertisers. As is common on many two-sided platforms, the price structure is heavily asymmetric, with one side contributing to the largest part, if not all, of the revenues. For media platforms, advertisers are commonly the ‘paying side’, while the audience is the ‘subsidy side’.

  • What do advertisers pay for? They pay for having access to the attention of the audience. Naturally, their willingness to pay grows with the audience that they have access to. In the jargon of the economic literature, it is said that the audience exerts a positive indirect network effect on advertisers.
  • What does the audience pay for? It pays for content. The question is then how the value of this content is affected by the presence of advertising. The answer to this question determines whether the advertising side exerts a positive or a negative indirect network effect on the audience. The effect is positive if, for instance, advertising contains useful information (think, e.g., of classified ads); conversely, the effect is negative if advertising is seen as a nuisance (e.g., because it spoils the reading or viewing experience). Note that the perception of such effects is likely to differ across individuals.

The sign and the magnitude of these indirect network effects are crucial to predict the importance of profit-oriented biases on media platforms. One can indeed conjecture that media biases are more likely to occur when the audience mainly sees advertising positively rather than negatively. In fact, when the audience welcomes advertising, there are positive indirect network effects on both sides. A positive feedback loop is thus in place: the larger the audience, the easier it is to attract advertisers and the more advertising the media contains, the more the media becomes attractive for the audience. In such a context, the owner of the media platform has higher incentives to favour content that pleases advertisers (or to avoid content that may displease advertisers) as this further fuels the positive feedback loop. The reverse applies when the audience mainly dislikes advertising: here, biasing the content towards the advertisers’ taste is less profitable as any increase in the amount of advertising would drive part of the audience away, thereby reducing the willingness to pay of the advertisers.

Two specific cases seem to confirm this intuition. The first case (which I already described on this blog) shows how costly it can be for a magazine to publish a piece of news that upsets one major advertiser. The second case (coming from an article published in 2014 in the Review of Economics) examines empirically how advertising by automobile manufacturers affects automobile reviews in a leading German car magazine. We then examine whether a solution to such problems could not come from the very company that dominates online advertising.

A tales of Sheiks and cheques

Source: www.dailybastardette.com

The Bulletin is a magazine for expatriates moving to or living in Belgium. In its issue of July 10, 2008, the magazine picked up a story that had already been reported in the Belgian and international press. The article described a police raid at the fourth floor of the Conrad Brussels hotel, which had been rented by some members of the Nahyan royal family of the United Arab Emirates. These people were accused of exploiting and mistreating their servants.

The hotel management regarded the publication of these reports as “unethical” and decided to cancel its subscription to the magazine. Two other hotels from the same group soon followed suit.

At first glance, this looked like a minor event for the magazine. The three hotels together distributed about 700 copies of the magazine, which amounted to 5 percent of its circulation. Yet, the magazine’s editor in chief, Derek Blyth, declared to the New York Times: “Our financial stability is at stake with such a major response. We’re reeling from the impact.”

Hence, there seems to be a disproportion between the scale of readership loss and the economic consequences for the magazine. Yet, the apparent paradox quickly clears when one realizes that the rich patrons of these five-star hotels constitute the audience that advertisers value the most.

Biased car reviews

car reviews

Dewenter and Heimeshoff (2014) examine the potential bias in car reviews of a leading German car magazine, Auto, Motor und Sport. More precisely, they investigate whether there is a link between car manufacturers’ advertising volumes in the magazine and the reported performance of the respective cars. Ample information is available to measure the characteristics of cars in a quite objective way (horse power, trunk capacity, mileage, emissions, etc.). Such objective measures can then be used to evaluate to which extent the test scores published in the magazine are based on such objective technical characteristics or on more subjective views “suggested” by advertising car manufacturers.

It is important to note that while an influence of advertising on test scores may exist (which is precisely what the authors try to uncover), the reverse influence may also exist: test scores may influence (future) advertising volumes (for instance, manufacturers may reduce their advertising expenditures after bad test scores have been reported). Neglecting this possibility may lead the authors to overestimate the impact of advertising volumes. To address this possibility of reverse causality, the authors use a number of appropriate econometric methods, which allow them to state with the following with some confidence:

Our main finding is a statistically significant influence of advertising on test scores, which provides evidence that a media bias caused by manufacturers’ advertising expenditures exists in car reviews.

Is Google Contributor the solution?

In November 2014, Google launched Contributor, a service that “is designed to allow web users to pay sites that they visit a monthly fee, and in return see no Google ads when they visit those sites.” How much does it cost? Actually, users can choose to pay $1, $2 or $3 a month to read their favorite website free of ads. So far, “only a handful of partners have been announced by Google“: Mashable, The Onion, Science Daily, Imgur, WikiHow, and Urban Dictionary.

This looks like a very exciting experiment. On the one hand, data on the number of users subscribing and on the average amount that they pay may allow us to estimate the monetary value of the negative indirect network effect that advertising exerts on users. On the other hand, participation of websites is also interesting to monitor: how many of them will join and, more importantly, which type of websites will join? One can expect this scheme to be more attractive for internet media that want to give a credible signal of their independence. Indeed, by decreasing their reliance on advertising, they may convince readers that they are more immune to the sort of ‘advertising media bias’ that we described above.

I would be happy to hear your thoughts about this. Search for other stories of potential media bias; look also for economic analysis of this issue. 

Business models for digital goods: video games (free-to-play games)

$
0
0

In a recent post on IPdigIT Paul Belleflamme raised the question of what might be appropriate business models for digital goods in the “culture of free”. This is the first post of a two-piece series in which I will have a closer look at the video game industry. 

Over the past decade many things have changed in the video game industry. One main aspect is, without a doubt, the move to a digital distribution of video games via platforms such as Steam (Valve Corporation) or Origin (Electronic Arts). With this change came a change in the business strategy of video game developers. Today two business models enjoy an ever greater popularity in the industry: free-to-play and episodic games. In this blog post I focus on the former, i.e., on the concept of free-to-play games.

Free-to-play games were born out of the success of massively multiplayer online games (MMOs) and the development on the app market. Successful titles such as Riot Game’s League of Legends or Blizzard Entertainment’s Hearthstone attract a large community of gamers. In 2014 more than 27 million people played League of Legends on a daily basis. Hearthstone, which was released in 2014, gained more than 20 million users in its first six months.

In economic terms, free-to-play games are freemium games. Freemium, a combination of free and premium, stands for a business model that is widely adopted in the digital economy (also discussed here on IPdigIT). Applied to the video game industry the concept implies that consumers may download a fully functional game for free. Additional, or premium, content, is available via so-called microtransactions. One can roughly divide these in-game purchases in two categories that depend on whether additional content is purely aesthetic or has a functional component. In the first case, sometimes referred to as pay-to-entertain, premium content is purely decorative and serves as a way for consumers to individualise the game according to their preferences. In the second case, also termed pay-to-progress or pay-to-win, additional content is functional and allows premium consumers to progress faster in the game, for example, by enhancing the performance of their in-game character.

It appears that the freemium model is hard to resist, even for established video game developers (see also this article on TechCrunch). In February 2015, Lionhead Studios, a British video game developer owned by Microsoft, made headlines by announcing that the next release of its highly successful Fable series will be free-to-play on Xbox One and Microsoft 10.

You’ll be able to play Fable Legends from beginning-to-end without spending a penny. That means you’ll have access to the entirety of Fable Legends’ storyline and all of the quests we release this year and forever. (fablelegends.com)

This change in strategy shows that Microsoft sees the future of the gaming industry, or at least of a significant part of it, in free-to-play. In the following I will have a closer look at why this may be the case.

User base and conversion rate

Two main factors drive the success of a freemium strategy: user base and conversion rate. The two concepts respectively refer to the number of (active) gamers and the share of gamers that purchase premium content.

Before delving deeper in the two concepts it is instructive to notice that a freemium strategy is essentially a strategy of price discrimination (menu pricing and personalised pricing). First, freemium games are offered via two different pricing plans, free and premium. As a result, even consumers with a very low, or zero, willingness to pay may download and play the video game (i.e., become active consumers). Second, the premium part resembles a strategy of personalised pricing. Consumers purchase premium content up to their reservation price and as such pay a personalised price for the video game.

What are the corollaries in terms of user base and conversion rate?

  • User base. By lowering the price for a basic, but fully functional, version of the video game to zero, developers maximise the user base. This is especially important in the case of video games as their experience good character results in high (non-price) barriers to consumption (consumers are uncertain about their private valuation for a video game prior to playing it).
  • Conversion rate. A certain share of the user base will purchase premium content. Most important, some users will spend more than they would have under a standard pay-to-play business model. By offering personalised prices video game developers hence maximise revenues and are able to give away a basic version of the game for free. Clearly, for free-to-play to be a viable business strategy, developers need to aim for a high enough conversion rate. The latter primarily depends on the scope of the free gaming experience and the value users see in the premium features.

Let me illustrate the two concepts further via the example of Lionhead’s Fable Legends. Fable Legends will be supported by microtransactions. During the game, players earn an in-game currency which, additionally, can be purchased with real world money. This in-game currency may then be spend on additional (functional) items. Moreover, in its free version, Fable Legends will have a limited number of in-game characters, or heroes, which, additionally will be rotated on a regular basis. Heroes may be unlocked permanently in exchange for in-game currency.

Network effects

I will come back for a moment to the group of consumers that does not purchase premium content. It is important to see that this group contributes in its own way to the success of a freemium strategy and as such is valuable for video game developers. The reason is that these consumers help to grow user base and conversion rate, either actively, for instance via word-of-mouth recommendations on social networking sites, or passively via network effects. In the case of free-to-play games there are direct (within-side) and indirect (cross-side) network effects. Direct network effects primarily imply that it is more enjoyable to play video games with a large user base (larger gamer community, possibility to play with or against one’s friends, etc.). Notice, however, that consumers may not only have greater incentives to download games with an already large user base, but also to purchase premium content when playing the latter. Gamers may want to become more competitive, by acquiring premium content, the more competitors, i.e., other gamers, they face. Indirect network effects now come into play because a larger user base gives video game developers stronger incentives to develop additional premium content. The prospect of a richer gaming experience, in turn, motivates more consumers to download the game and/or convinces already active users to purchase additional premium content.

Fable Legends optimally exploits those network effects. Consumers may play the game either alone or together with their friends. Even more important is the fact that the game is available for Xbox One and Microsoft 10 and features a cross-platform functionality. Meaning, the game not only appeals to a wider audience (Microsoft 10 and Xbox One users) but also intends that users with different consoles play against one another. What is more, Fable Legends builds on the fan-base from the Fable series and as such on a large potential market with an established gamer community.

Switching costs and games as a service

For video game developers the free in freemium is a double-edged sword. On the one hand it allows them to grow their user base rapidly. On the other hand, the same applies for their competitors. For a successful freemium strategy it is thus not enough to motivate a sufficiently large number of consumers to download a video game and to purchase premium content. Instead the success of the business model equally depends on video game developers’ ability to keep their user base, i.e., on a high enough retention rate.

This is where the premium in freemium comes into play. The possibility to individualise a game via microtransactions creates a unique gaming experience. Corollaries are a strong attachment and involvement of consumers in their game. That is, the premium content of free-to-play games creates significant switching costs; after having spent several hours, days, weeks or months and potentially a significant amount of money playing and customising a game consumers are less likely to switch to another (competing) title.

Free-to-play games are based on the games as a service approach. Among other things, this implies that for most free-to-play titles there exists no finalised version. Instead, the focus is shifted on the post-release development stage. Video game developers therefore have the opportunity to interact with the gamer community and to adapt future (premium) content to its feedback. However, as Will Luton mentions in Free2Play, it might not so much be about what consumers say, but more about what they do. In fact, the digital diffusion of free-to-play titles makes it possible to collect a vast amount of data on how consumers actually play a game, including when and what type of in-game content is purchased. This type of information facilitates the development of premium content that gamers desire and are willing to spend their money on. Notice that this is another way of how a large group of non-premium consumers may contribute to the success of free-to-play games. Although those consumers do not purchase premium content, their gameplay data contains information on how to increase the willingness to pay of premium consumers, for instance, by developing video game content of a higher quality or that matches consumer preferences more closely.

The games as a service character of free-to-play titles also provides developers with a way to reduce the durability of their video games. You may wonder why game developers may want to do this. The reason lies in the durable good character of video games which subjects their developers to the Coase conjecture. As I explain here on IPdigIT the Coase conjecture states that a monopoly supplier of a durable good has no monopoly power. Why so? The monopolist faces a commitment problem. Ex-ante he would like to set the monopoly price, while ex-post – once the first units of the durable good are sold – he would like to decrease the price to also capture consumers with a lower willingness to pay. Consumers, however, anticipate this and by postponing their consumption put downward pressure on the price. Assuming that the consumers’ waiting period is short enough, the monopolist is then forced to adopt the same pricing strategy as a competitive firm, i.e., marginal cost pricing. To overcome this commitment problem, one obvious strategy, among many others, is to reduce the durability of the product.

I am now wondering whether the future of the video game industry is free-to-play? Is the concept indeed sustainable for large titles that involve significant development costs? And can you think of other factors that determine the success of a freemium strategy in the video game industry (you may want to have a look at this article by Myriam Davidovici-Nora (2014) in the Digiworld Economic Journal)?

Business models for digital goods: video games (episodic games)

$
0
0

In a recent post on IPdigIT Paul Belleflamme raised the question of what might be appropriate business models for digital goods in the “culture of free”. This is the second post of a two-piece series in which I will have a closer look at the video game industry.

Over the past decade many things have changed in the video game industry. One main aspect is, without a doubt, the move to a digital distribution of video games via platforms such as Steam (Valve Corporation) or Origin (Electronic Arts). With this change came a change in the business strategy of video game developers. Today two business models enjoy an ever greater popularity in the industry: free-to-play and episodic games. In this blog post I focus on the latter, i.e., on the concept of episodic games.

Let me first clarify what I understand under an episodic video game. Not unlike a TV show, an episodic game is divided into separate episodes that stand on their own, but are part of a larger concept. The episodes are released over a defined period of time – typically several months – and, compared to the complete game, have only a relatively short duration of play.

The concept of episodic games is not entirely new. Nevertheless, it was not until TellTale Games released The Walking Dead: the Game in 2012 that the concept was recognised as a business strategy with mass-market appeal. Since then there has been a surge in the release of episodic video games. Recent titles include TellTale Game’s adaptation of Game of Thrones or Dontnod Entertainment’s Life is Strange.

In times of ever faster consumption cycles it may sound paradoxically that spreading the release of a video game over several episodes can be a smart move for video game developers. In the following I will have a closer look at some economic aspects of episodic games and hope to convince you that this is indeed likely to be the case.

Consumption habits of digital consumers

The rise of downloading and streaming services, such as iTunes or Netflix, significantly shaped our digital consumption habits. As such, we, as consumers, developed certain expectations regarding availability, prices and our ability to choose when it comes to the consumption of digital media content like music or TV shows. Those expectations are linked to the characteristics of digital media content: piece-wise consumption (focus on tracks/episodes instead of the full album/season), easy and instant access and relatively low prices.

By releasing video games on an episodic basis game developers respond to these expectations. The result are lower price and non-price barriers to the consumption of video games that allow game developers to widen their sales basis and even to attract new user groups.

  • Prices. Episodic games are released in several instalments that are each offered for a fraction of the price of the full game. As a consequence, consumers that are hesitant to purchase a game for financial reasons may be less reluctant to do so under an episodic release format. Dontnod’s Life is strange, for example, will be released in five episodes. At the moment of writing this post, the first episode is available for 4,99€. The full game, i.e., all five episodes, is currently priced at 19,99€ (with access to later episodes once they are released). 
  • Instant access. The move to a digital distribution of video games via platforms such as Steam or Origin significantly contributed to the success of an episodic release format. As such it provides consumers with easy and instant access to the latest episodes and by this lowers their non-price barriers to consumption (imagine you would have to order each episode via amazon or run to the next video game store in order to pick it up).
  • Commitment and risk-aversion. Video games are experience goods; prior to playing a game consumers do not know their private valuation for it. Moreover, under a traditional release concept video games are typically characterised by relatively high prices and long game play. It is then not difficult to see that more risk-averse consumers may be hesitant to download a game due to a combination of high price, long time commitment and experience good character (“I will not spend 60€ on a game that I will never finish anyhow. And what if I don’t end up liking the game?”). An episodic release format lowers these non-price barriers to consumption by giving consumers a legal and easy way to sample the good at a relatively low price as well as by reducing the perceived time commitment.
  • Casual gamers. By releasing a video game in several instalments, complex games become more accessible. This may attract new user groups such as casual gamers.

Anticipation, buzz and consumer involvement

One challenge of an episodic release format is to motivate consumers to repeat their purchase with every release of a new episode. Luckily, an episodic release format features two effects that facilitate this.

First, releasing a video game episode-by-episode creates anticipation. We all know this from our favourite TV-show. An episode ends with a cliff-hanger, making us count the minutes until the next one is released.

The need to wait for the next chunk of the game adds to the excitement and anticipation, making the release of each episode feel like an event to be savored and enjoyed. (Ben Kuchera on Polygon)

Second, making consumers wait between the release of two episodes provides time for the emergence of a community of players. Episode-by-episode players can share their gaming experience, compare their progress in the game or speculate about the next episode(s). This not only creates a certain buzz around the game which attracts new consumers, but also ensures that consumers stay involved in the game.

We saw the strength in that model as the way to tell a story and it was tied into our digital distribution strategy, which was to break the content up in a way that would engage people over time and have them return to you, instead of just building a one-time experience. (Dan Connors, CEO of TellTale Games)

Continuous improvement and innovation

Similar to free-to-play games, an important advantage of an episodic release format is the existence of a feedback loop. By this I mean two things. First, developers can react to feedback from the gamer community and apply it to future episodes. Second, and in my eyes even more important, developers learn about their consumers and their gameplay. This gives developers important information on how to adapt future episodes. The result is not only video game content that matches consumer preferences more closely, but also that innovation and experimentation become less risky. It follows that under an episodic release format game developers have a greater freedom to experiment with techniques, different forms of narration and so on. Consumers thus benefit in form of higher quality and more innovative video game content and might even see the release of video games that otherwise might not have been made.

I mentioned previously that, in contrast to a classic release format, consumers have to be motivated not only one time, but several times to purchase (part of) the video game. This implies that with an episodic release format each episode has to be a hit. Otherwise, what is the incentive for consumers to repeat their purchase once the next episode becomes available?

Funding

Episodic games involve two main types of costs: a project sunk cost (to be paid regardless of how many episodes are developed) and a variable per-episode cost (to be paid for each episode developed). As a corollary, getting the project started, i.e., developing the first episode, is less costly with an episodic concept as compared to a standard release format. New video game content may thus be released faster. Moreover, the sales from past episodes may, at least partially, finance future episode(s), resulting in an overall lower need for external funding.

Related is the following point. Episodic games are typically offered at different pricing plans. Take for example the case of Life is Strange. At the moment, consumers may download the first episode either for the episode price of 4,99€ or by paying the price of the complete video game (five episodes) of 19,99€. Consumers who opt for the latter option advance their payment in the hope that the full game will be developed. Episodic games, hence, share similarities with crowdfunding projects. For investors and developers this share of consumers may contain valuable information as it can be interpreted as a measure of confidence of the market in the video game.

Developing and selling a video game episode-by-episode may also be less risky. The reason is that the existence of the previously mentioned feedback loop gives developers the opportunity to adapt the game episode-by-episode. Or, in the worst case, an episodic release format gives developers the option to opt-out and stop the production of future episodes. In contrast, under a classic release format, developers have to pay the full development costs before receiving a feedback from the market.

Although the business model sounds very promising, it raises several important questions. In my eyes the most important, and challenging, one is “How to get the pricing and the timing right?” Also, in your eyes, are episodic games a promising concept to fight digital piracy?

How do comparison shopping sites make a living? An update

$
0
0

comparsion

Comparison shopping sites, also known as shopping robots or shopbots, have been around for about two decades. Sites such as Shopping.comShopper.comPriceGrabberShopzillaVergelijk or Kelkoo help us find goods or services that are sold online by providing us with loads of information (products sold, price charged, quality, delivery and payment methods, etc.). As they present the information in an accessible way and display links to the vendors’ websites, shopbots significantly reduce our costs of searching for the best deal.

The most common business model for shopbots is to charge sellers for displaying their information while letting users access the site for free. Fees can be computed in different ways, as explained by Moraga and Wildenbeest (2011, p. 4):

Initially, most comparison sites charged firms a flat fee for the right to be listed. More recently, this fee usually takes the form of a cost-per-click and is paid every time a consumer is referred to the seller’s website from the comparison site. Most traditional shopbots, like for instance PriceGrabber.com, and Shopping.com operate in this way. Fees typically depend on product category—current rates at PriceGrabber range from $0.25 per click for clothing to $1.05 per click for plasma televisions. Alternatively, the fee can be based on the execution of a transaction. This is the case of Pricefight.com, which operates according to a cost-per-acquisition model. This model implies that sellers only pay a fee if a consumer buys the product. Other fees may exist for additional services. For example, sellers are often given the possibility to obtain priority positioning in the list after paying an extra fee.

How can such a business model be economically viable? To answer this question, we need to understand how shopbots create value for both retailers and consumers, so as to outperform their outside option, i.e., the possibility for them to find each other and conduct transactions outside the platform?

A quick journey through a number of landmark contributions to the theory of imperfect competition will help us understand the importance of price transparency and search costs. To use a simple setting, think of a number of firms offering exactly the same product, which they produce at exactly the same constant unit cost. They face a large number of consumers. If firms compete by setting the price of their product, Joseph Bertrand has shown in 1883 that the only reasonable prediction of this competition is that firms will set a price equal to the unit cost of production. This result is sometimes called the ‘Bertrand Paradox’ as the competitive price is reached although there may be no more than two firms in the industry.

One important assumption behind this result is that there is full transparency of prices: all consumers are able to observe the prices of all firms without incurring any cost. As the firms offer products that are exactly the same, consumers only care about the price and (absent capacity constraint), they all buy from the cheapest seller, which generates this cutthroat competition.

What happens if it is assumed instead that consumers face a positive search cost if they want to observe and compare prices? Peter Diamond (Nobel Prize in economics, 2010) show in his 1971 paper that the exact opposite result obtains: all firms will price at the monopoly level and no consumer will search. This result, known as the ‘Diamond Paradox’, holds even if consumers have infinitesimal search costs. Belleflamme and Peitz (2010, p. 164) explain the intuition:

In this equilibrium, consumers expect firms to set the monopoly price. A firm which deviates by setting a lower price certainly makes those consumers happier that learnt about it in the first place, but since the other consumers do not learn about it, this will not attract additional consumers. Given their beliefs, consumers have an incentive to abstain from costly search, so that a deviation by a firm is not rewarded by consumers.

The next question that naturally arises is what happens between the previous two extremes. What if consumers have different search costs. In their “bargains and ripoffs” paper of 1977, Steven Salop and Joseph Stiglitz (Nobel Prize in economics, 2001) suppose that there are two kinds of consumers: the “informed” consumers can observe all prices for free, whereas the “uninformed” consumers know nothing about the distribution of prices. Under this assumption, they show that spatial price dispersion can prevail at equilibrium: some stores sell at the competitive price (and attract informed consumers) while other stores sell at a higher price (selling only to uninformed consumers).

In his model of sales of 1980, Hal Varian (now chief economist at Google) establishes the possibility of temporal price dispersion. In his model, the equilibrium conduct for firms is to randomize over prices (to put it roughly, it is as if they were rolling a dice to determine which price to set). As a consequence, at any given period of time, firms set different prices for the same product; also, any given firm changes its prices from one period to the next. This is why price dispersion is said to be temporal.

comparison shopping

Let us now terminate our journey by introducing shopbots into the picture. In the previous models, firms didn’t have to incur any cost to convey price information to consumers. It was consumers who had to search for the information, with some consumers incurring a larger search cost than others for some unknown reason. By adding a new player to the model, namely a shopbot, Michael Baye and John Morgan propose, in their 2001 paper, a more realistic model where the above assumptions are relaxed. In their model, a profit-maximizing intermediary runs a shopbot that mediates the information acquisition and diffusion process. This intermediary can charge both sides of the market for its services; that is, firms may have to pay the intermediary to advertise their price and consumers may have to pay to gain access to the list of prices posted on the shopbot. After observing the fees set by the intermediary, sellers decide whether or not to post their price on the shopbot and if so, which price, while consumers decide whether or not to visit the shopbot and learn the prices (if any) that are posted there.

Baye and Morgan show that price dispersion persists in this environment. This is because the intermediary optimally chooses to make sellers pay for advertising their price on the shopbot, while letting all consumers access the shopbot for free. This means that all consumers are ‘fully informed’ in the sense that they buy from the cheapest firm on the shopbot. Despite this fact, firms earn positive profits at equilibrium (this is due to the fact that they post randomized prices on the shopbot, as was the case in Varian’s model of sales).

The predictions of this model square quite well with the business model that most shopbots have adopted and with the common observation that prices listed on shopbots are dispersed (even though the advertized products are very similar). So, the quick journey that we have made allows us, I believe, to understand better how shopbots can enter the market and survive in the long run.

Important remaining questions are whether shopbots increase the competitiveness of product markets and enhance market efficiency. In this regard, a recent contribution by David Ronayne suggests that “price comparison websites may do customers a disservice”. He explains the intuition in this blog post:

Price comparison websites impose two opposing forces on the markets in which they operate. On one hand, they increase competition between firms, which pushes prices down. But on the other, comparison websites make substantial profits, which they glean in a large part from fees charged to firms for referring customers to them. As explained on Money Supermarket’s website: “Our main income is derived from customers clicking through from results pages and buying a product.” In 2013, the company experienced turnover of £225m (up 10% on 2012), with post-tax profits standing at £35m (up 40% on 2012). This has a knock-on effect on firms. It adds to their costs and therefore affects their pricing decisions, so can lead to them upping their prices.

I would like you to do some research about the effects of price comparison websites on the well-being of consumers. You can also give your opinion referring to your own experience.

(This post updates a previous post published in March 2014.)


Not on my network! App exclusion and the net neutrality debate

$
0
0

IPdigIT continues its series of posts on net neutrality (see here and here) by republishing a Policy Brief of the Liège Competition and Innovation Institute (LCII), written by Axel Gautier and Sébastien Broos.

Photo: Maxx-Studio/Shutterstock

Photo: Maxx-Studio/Shutterstock

 

The net neutrality debate is at its peak. On January 27, the Dutch Authority for Competition and Markets (DACM) fined KPN and Vodafone for the first violation of the Dutch net neutrality law ever. On February 26, the Federal Communications Commission (FCC) approved new regulations for broadband internet, preserving the net neutrality. In brief, the net neutrality proponents seem to be winning the debate. In a recent economic paper, Sébastien Broos and Axel Gautier analyze whether this toughened stance of regulatory authorities is the best way forward.

They focus specifically on the two types of infringements that have been fined by the DACM. Firstly, the exclusion by Internet Service Providers (ISPs) of applications competing with their own bundle of products, a typical example being VoIP applications. These apps are what economists call competing one-way essential complements. One-way essential complements are couples of goods (internet and the app), one (the internet) being essential for the other (the app) to work while the second (the app) adds value to the first. KPN was fined for banning VoIP applications from its Wifi hotspot network. The second focus is price discrimination between app users and non-app users. Vodafone was fined by the DACM for offering some apps and the associated content for free, thereby making de facto the price of internet services different according to usage. For instance, other ISPs like Yoigo in Spain ask for a price surcharge for using VoIP applications on their mobile network.

The paper focuses on three simple questions:

  1. Is it optimal for the ISPs to exclude competing apps?
  2. If not, is it optimal to have a special tariff for using these apps?
  3. Is it welfare improving to prohibit exclusion and price surcharge?

To answer this question, Broos and Gautier develop a model with three goods: the internet, the phone and a VoIP app (thereafter “the app”), with the phone and the app being differentiated products. The phone works on its own but the app needs the internet to function. The internet and the app are thus one-way essential complements.

They consider first a monopoly ISP selling the internet and the phone. App exclusion creates two competing effects. First, there is a business stealing effect, the app steals revenue from the phone business of the ISP because some consumers switch from the phone to the app. Secondly, there is a complementarity effect, the app creates value for internet users who are then ready to pay more for the internet when applications are available. Broos and Gautier show that by appropriately rebalancing the price of the phone and the internet services, the complementarity effect more than compensates the business stealing effect. For that, the ISP should raise the price of the essential good (the internet) to extract the extra surplus consumers obtain by using the app. For the ISP, it is therefore not profitable to exclude the app. More than that, profits can be increased by asking consumers for a surcharge to enable access to the app. Perhaps more surprisingly, the firms’ and consumers’ interests are aligned: imposing net neutrality, that is forcing ISPs to stop the surcharges, decreases both profits and consumer surplus.

They consider next competing ISPs. Competition between ISPs drives down prices and profits on the internet and the phone markets. Therefore, the business stealing effect of the app is much less important. But, the complementarity effect remains. The paper shows that full exclusion of the app by all ISPs is never an issue. Should one ISP exclude the app, the other will offer it to benefit from the complementarity effect. However, there exists an equilibrium in which the internet is fragmented (see here), meaning that the app is made available only at one ISP. Partial exclusion of the app thus becomes an issue when ISPs compete. (The paper shows that it is the only issue if ISPs are asymmetric in their product offer.) When the internet is fragmented, the ISP offering the app benefits from the complementarity effect only if it can price discriminate and ask a surcharge for using the app. Finally, Broos and Gautier show that prohibiting exclusion and price discrimination i.e. implementing net neutrality, acts as a competition intensifier leading to lower prices. This benefits consumers but not always welfare.

The paper shows that net neutrality rules are not useful when there is no competition between ISPs. With competition, a likely outcome of a non- neutral internet is a fragmented internet where all the apps are not made available everywhere. Competing ISPs have incentives to differentiate themselves by offering exclusive content on their network. The welfare impact of a fragmented internet is not always clear-cut and it certainly depends on the degree of competition between app providers, an issue that is not yet considered in the paper of Broos and Gautier. The net neutrality debate is still going on.

Axel Gautier and Sébastien Broos

LCII logo

L’avenir du droit d’auteur au-delà de la stratégie de la Commission européenne sur le Marché unique numérique

$
0
0

Digital Single MarketLe mercredi 6 mai, la Commission européenne dévoilera sa stratégie pour le Marché unique numérique (ici), l’une des priorités de l’équipe Juncker. Un pilier de cette stratégie sur le Digital Single Market concerne la réforme du droit d’auteur. L’objectif résumé par la Commission est de: “Modifier les règles régissant les droits d’auteur afin de tenir compte des nouvelles technologies et de les simplifier et clarifier.” C’est à propos de cette réforme que j’ai été récemment interrogé par Renaud Homez dans L’éventail (

Eventail.be – La Commission Juncker semble vouloir réformer le droit d’auteur en profondeur afin de briser les barrières nationales et de favoriser l’accès à la connaissance et la diffusion des œuvres. Cela passera-t-il forcément par une diminution de la protection des ayants droit ? Est-ce la bonne méthode ?

Alain Strowel – Je doute que l’on arrive à une grande réforme du droit d’auteur. Comme lors d’autres tentatives par le passé, la volonté réformiste se heurtera à un barrage intense qui fera reculer les députés européens ou certains pays membres. Suite au rapport de Julia Reda, des cinéastes européens ont par exemple déjà lancé préventivement une campagne invoquant certains périls pour la création européenne (voir Le Soir, 16.4.2015). Néanmoins, il y aura sans doute une législation sur certains aspects transfrontaliers des services de la société de l’information afin de faciliter l’accès aux services et la portabilité des contenus – l’objectif du marché unique numérique. En revanche, il est loin d’être acquis que le régime des exceptions au droit d’auteur par exemple soit revu ou même retouché.
Je n’aime pas parler de diminution de la protection des ayants droit – c’est un slogan pour du lobbying mais c’est difficile à définir et encore plus à mesurer. Doit-on considérer que faciliter l’accès des consommateurs aux services offerts au-delà des frontières diminue le niveau de protection des créateurs? Cela dit, l’érosion du contrôle qu’assure le droit d’auteur va continuer avec le transfert vers le numérique en ligne. Certains ont pu penser il y a quelques années que le numérique allait permettre de cadenasser les accès aux œuvres par des mesures techniques, il n’en est rien.

– Quel est selon vous le principal défi auquel le droit d’auteur est confronté dans l’ère numérique? Pouvez-vous citer des exemples concrets ?

– Le principal défi est de mettre en place des mécanismes permettant aux ayants droit d’être mieux et plus rapidement rémunérés par les services qui, comme YouTube, offrent des accès gratuits mais sont financés par la publicité des annonceurs. Il n’est donc pas nécessaire d’introduire une exception pour les « contenus générés par les usagers » (UGC en anglais), un terme du reste mal choisi, mais les canaux pour faciliter les licences doivent être améliorés. A cet égard, l’exemple du Copyright Hub (voir http://www.copyrighthub.co.uk/) au Royaume-Uni est intéressant. De telles initiatives concrètes sont à encourager, plutôt qu’une réforme législative des exceptions qui risque de ne pas sortir ses effets avant 10 ans (temps moyen pour l’adoption d’une directive et sa transposition dans les Etats membres). Plutôt que de revoir les exceptions au niveau européen, il faudrait mettre mieux en lumière la flexibilité du cadre existant et établir ou codifier de bonnes pratiques entre les parties intéressées (par exemple entre les éditeurs et les bibliothèques qui veulent devenir des intermédiaires dans la diffusion numérique).

– Les ayants droit seront-ils encore en mesure de défendre leurs droits face à l’arrivée massive d’opérateurs internet qui semblent ignorer les droits d’auteur (ex : Google) ?

– Il est vrai que dans le monde global des réseaux, le respect des droits d’auteur n’est pas une chose aisée car certains opérateurs de site dédiés au piratage se réfugient dans des pays où il est difficile de mettre en œuvre le droit. C’est la raison pour laquelle de plus en plus de procédures sont introduites dans les pays européens pour imposer aux fournisseurs d’accès de bloquer l’accès à ces sites clairement illicites, et l’arrêt UPC Telekabel (2014) de la Cour de justice a largement validé cette procédure contre les intermédiaires.
Avec Google, on n’a toutefois pas un opérateur malhonnête, mais une entreprise globale qui crée de la disruption sur d’autres marchés, à commencer par les marchés traditionnels de fourniture de contenus. Les pratiques de Google visent à profiter au maximum des flexibilités qu’offre la loi américaine (notion d”usage loyal’ des œuvres) pour moissonner des contenus et se faire payer sur les publicités qui y sont associées. Google et d’autres géants de l’internet ont pour effet de ‘commodifier’ les contenus, c’est-à-dire de les réduire à des composants sans valeur, tout en valorisant leurs services d’agrégation d’informations et de contenus. Cette évolution me semble inéluctable sur l’internet, elle profite fort aux consommateurs (par ex. de contenus de presse), ce qui est une bonne chose. Il faudrait que ces opérateurs internet contribuent davantage à la production des contenus. C’est pourquoi promouvoir des mécanismes de retour de l’argent de la publicité vers les créateurs est essentiel.

– Un point de discorde fréquemment invoqué est la “territorialité des droits”. Ne gagnerait-on pas en effet à universaliser les règles (du moins au niveau européen) ? Si oui, comment assurer une rémunération équitable aux titulaires de droit ?

– On peut s’attendre à ce que la Commission prenne des mesures pour réduire certains effets de la territorialité des droits d’auteur, par exemple en limitant les possibilités de fragmenter par contrat le marché européen (comme dans l’affaire Premier League tranchée par la Cour de justice en 2011). On pourrait aller plus loin et en tant qu’académique, observateur de l’harmonisation depuis plus de 20 ans, je suis favorable à des mesures plus radicales, comme la création d’un droit d’auteur à l’échelle de l’Union (plutôt que la situation actuelle, où coexistent 28 droits d’auteur nationaux, ce qui facilite la fragmentation). Mais, politiquement, ce n’est sans doute pas raisonnable si on a en vue le court terme. Mettre sur la table de la présente législature un projet de règlement allant en ce sens, quitte à attendre plus de 5 ans pour l’adopter, me semble tout à fait utile pour l’harmonisation à long terme, mais un tel horizon n’intéresse pas les politiques, ni la machine bureaucratique qu’est la Commission.

– Que pensez du récent rapport de la députée européenne Julia Reda ? Faut-il y voir un acte isolé ou une réticence largement répandue au sein du Parlement européen envers les droits d’auteur ?

– Le rapport est intéressant comme point de départ pour la réflexion. Cela dit, il n’est pas réaliste et a tendance à mêler trop de choses différentes. Il correspond à la vision d’une frange très réformiste (celle du parti Pirate qui a propulsé la réforme du droit d’auteur comme question politique), pas de la majorité (plus silencieuse) des députés européens. Cette majorité a tendance à s’aligner sur les positions des lobbys culturels qui sont attachés à maintenir le statu quo. Sur certains points, il faut clairement préserver les acquis du droit d’auteur, voire renforcer la position des auteurs (par ex. par une législation sur les contrats des auteurs), mais il faut être plus ouvert à des changements (par ex. en matière d’exceptions) même si cela ne passe pas nécessairement par une réforme du cadre européen existant.

– Bien qu’un nouveau Code de droit intellectuel ait vu le jour, la législation belge actuelle vous semble-t-elle encore adaptée à la nouvelle donne numérique ?

– Oui, la plupart des dispositions adoptées en 1994 (date de la loi belge sur le droit d’auteur), puis légèrement retouchées au fil des années et intégrées depuis le début de 2015 dans le Code de droit économique, n’ont pas besoin d’être revues. Cela dit, en matière d’exceptions, un sujet important pour le numérique, il faudrait revoir très sérieusement les règles belges, ne fut-ce que parce que l’organisation des exceptions est inutilement compliquée, mais aussi tenir compte des exigences du numérique (par ex. pour faciliter l’enseignement en ligne). Il faudrait surtout améliorer la lisibilité du droit d’auteur : quels sont les usagers qui peuvent comprendre la limite de ce qui est permis ou autorisé par le droit d’auteur? C’est une condition importante pour l’acceptation du droit d’auteur par le grand public.

– Comment voyez-vous le droit d’auteur dans 50 ans ?

– Depuis que je me suis plongé pour la première fois dans le droit d’auteur, il y a 30 ans, les législations sur le droit d’auteur se sont succédées. Quand j’ai commencé, la loi belge en vigueur datait de 1886 et ne comportait qu’une vingtaine d’articles. Aucune directive européenne n’existait. Aujourd’hui, le cadre juridique s’est fort étoffé (plus de 150 articles sur le droit d’auteur et les droits voisins dans le Code de droit économique, dix directives communautaires, etc.). A côté du droit d’auteur, les droits voisins se sont multipliés ; au sein du droit d’auteur, il y a maintenant beaucoup de droits à rémunération, sans pouvoir d’exclure les usagers. J’imagine que l’arsenal législatif continuera à se développer, pas trop j’espère, car la multiplication de ces droits et le mauvais découpage des exceptions rendent les choses très, trop compliquées. Il est important que le mécanisme qui met le créateur, personne physique, et ses droits au centre du système subsiste, cela assure une certaine autonomie de la création par rapport aux contraintes extérieures, même si ce n’est pas suffisant pour garantir une culture émancipée. On peut parier que dans 50 ans, ce mécanisme qui est apparu à la Révolution française (avec les lois de 1791 et 1793) sera toujours en place, mais les institutions qui contribuent à sa mise en œuvre auront sans doute fortement changé (notamment la place des producteurs et des sociétés de gestion). On peut espérer que la gestion soit en partie mondialisée suite à l’accroissement des usages sur les réseaux, tout en permettant un plus grand contrôle par les auteurs eux-mêmes (plutôt que par des intermédiaires parfois peu transparents). On peut aussi espérer que beaucoup de citoyens devenant eux-mêmes “auteurs” suite à la démocratisation culturelle – cette démocratisation suppose d’étendre le public des (grandes) œuvres, mais aussi la capacité des gens à produire des contenus de sens – , le respect du droit d’auteur, et notamment de l’intégrité des oeuvres et du nom des créateurs, soit mieux partagé qu’il ne l’est actuellement.

Brussels Internet & Telecom Seminars (July 16, 2015)

$
0
0

Both Paul Belleflamme and Alain Strowel will contribute to the next Brussels Internet & Telecom Seminar that takes place on July 16, 2015 at Fondation Universitaire in Brussels. The theme of the seminar is “Internet Platforms To regulate or Not to Regulate?“. We will keep you informed about our interventions.

You can find the program here. You can register on this page.

Bits

Les plateformes de crowdfunding : comprendre leurs rôles et leurs stratégies

$
0
0

Comme déjà expliqué sur ce blog (en anglais), le crowdfunding (ou financement participatif) est une forme alternative de financement qui a actuellement le vent en poupe. L’idée est simple: au lieu de chercher à obtenir de grosses sommes auprès d’un petit nombre d’acteurs traditionnels (proches, banques, business angels, venture capitalists), les entrepreneurs ont désormais la possibilité d’inverser l’équation en sollicitant de petites sommes auprès d’une ‘foule’ (en anglais, crowd) de contributeurs.

Comme le montre la figure ci-dessous, le crowdfunding se présente sous différentes formes, selon le type de compensation – monétaire ou non – qui est offert aux contributeurs.

Formes-de-crowdfunding

Quelle que soit la forme retenue, le crowdfunding est organisé par des plateformes digitales dont la mission principale est de faciliter l’interaction entre les entrepreneurs qui cherchent à lever des fonds pour financer leurs activités et les consommateurs-investisseurs qui cherchent à s’impliquer dans le financement de nouveaux projets. A ce titre, on peut ranger les plateformes de crowdfunding dans la catégorie des plateformes à deux versants (en anglais, two-sided platforms). Evans (2011) relève qu’une opportunité d’affaires émerge pour une plateforme à deux versants lorsque des groupes distincts d’agents économiques (les ‘versants’ de la plateforme) sont désireux d’interagir mais font face à des couts de transaction trop importants pour organiser cette interaction par eux-mêmes ; la plateforme crée alors de la valeur en servant d’intermédiaire entre les deux groupes, c’est-à-dire en internalisant (en tout ou en partie) les effets externes que génère l’interaction entre ces groupes.

Belleflamme, Omrani et Peitz (2015) font l’inventaire des effets externes qui peuvent naître de l’interaction entre entrepreneurs et investisseurs sur une plateforme de crowdfunding. Ils analysent d’abord les effets externes qui existent entre les groupes. Il s’agit d’estimer la manière dont les membres d’un groupe valorisent une participation accrue des membres de l’autre groupe. Dans le financement participatif, ces effets externes entre groupes sont généralement positifs. En effet, pour ce qui est des demandeurs de fonds, il ne fait pas de doute qu’ils apprécieront davantage une plateforme de crowdfunding si celle-ci attire un grand nombre d’investisseurs potentiels car cela augmentera leurs chances d’atteindre le financement désiré. Dans l’autre sens, il est raisonnable de penser que la présence d’un plus grand nombre de projets à financer rend une plateforme de crowdfunding plus attractive pour les investisseurs. Certes, l’accroissement du nombre de projets pourrait réduire la probabilité pour chacun d’entre eux d’atteindre le seuil de financement, ce que les investisseurs pourraient déplorer. Mais à l’inverse, si l’offre de projet s’étend, les investisseurs sont plus susceptibles de trouver des projets qui correspondent mieux à leurs gouts. Ce second effet est certainement plus marqué pour les plateformes de crowdfunding actives dans les arts, la culture et les médias vu la grande diversité des gouts des investisseurs.

Dans leurs choix de stratégies, les plateformes de crowdfunding doivent également s’intéresser aux effets externes qui peuvent survenir au sein des groupes. Du côté des investisseurs, plusieurs effets externes ont déjà été identifiés et analysés. Chaque investisseur est susceptible d’apprécier la présence d’un plus grand nombre d’investisseurs dans la mesure où chaque projet aura davantage de chances d’être financé et où plus d’informations quant à l’intérêt des projets présentés pourront être inférées du comportement des autres investisseurs ; il faut cependant noter que ce second effet (dit de ‘cascades d’information’) peut se révéler négatif si les premiers investisseurs ont pris de mauvaises décisions. Du côté des entrepreneurs, il est raisonnable de penser que les effets externes au sein du groupe sont négatifs dans la mesure où la concurrence pour un montant de fonds donné s’intensifie au fur et à mesure qu’augmente le nombre de projets présentés sur la plateforme (même si des échanges de bonnes pratiques entre entrepreneurs peuvent profiter à tous).

La figure suivante résume les différents effets externes auxquels les plateformes de crowdfunding font face.

Effets-externes

Un des enjeux majeurs pour les plateformes de crowdfunding est de réduire l’asymétrie de l’information qui existe entre les deux versants de la plateforme : a priori, les entrepreneurs sont mieux à même d’apprécier la qualité de leur projet (chances de succès, viabilité) que les contributeurs. Le risque est alors d’assister à un phénomène de sélection adverse susceptible de menacer l’existence même de la plateforme. Le cercle vicieux suivant pourrait en effet s’engager : si les contributeurs ont une faible attente quant à la qualité des projets, ils auront une également une faible prédisposition à apporter des fonds; anticipant cela, les entrepreneurs ne s’attendront pas à lever beaucoup de fonds et seuls resteront sur la plateforme les projets de basse qualité; comprenant cela, les contributeurs reverront à la baisse leurs attentes quant à la qualité moyenne des projets présents sur la plateforme et ainsi de suite.

Il donc dans essentiel pour le plateformes de résoudre – ou à tout le moins d’atténuer – ces problèmes d’asymétrie informationnelle. Une première solution consiste à mêler aux activités de la plateforme des investisseurs ‘sophistiqués’ qui ont davantage de moyens et d’expertise pour analyser la viabilité des projets proposés. On pense aux banques (comme le fait, par exemple, MyMicroInvest avec BNB Paribas Fortis), aux venture capitalists, aux business angels, ou encore à investisseurs institutionnels.

bad-apple-panoramic_1211211

Les plateformes de crowdfunding peuvent également opérer directement un travail de sélection des projets en amont. Les plateformes engagent alors leur responsabilité propre, ce qui est de nature à rassurer les contributeurs en ce sens que la plateforme a plus d’intérêt à maintenir sa réputation que ne l’a chaque entrepreneur pris séparément. En effet, il suffit d’une seule pomme pourrie pour contaminer tout un panier. La plateforme doit donc s’efforcer de n’accepter que des projets de qualité, au risque de perdre complètement la confiance des apporteurs de fonds.

12039500_1647547685507926_4452014770351594543_n

Il est intéressant de constater que la concurrence à laquelle se livrent les grandes plateformes de crowdfunding peut les amener à prendre des décisions opposées dans ce domaine. Ainsi, début octobre 2015, Kickstarter a stoppé la campagne de financement d’un projet de rasoir laser parce que le porteur du projet n’avait pas présenté de prototype fonctionnel, une exigence posée par la plateforme pour tous les biens physiques qui sont proposés comme récompense aux contributeurs. On comprend qu’une telle exigence est destinée à séparer le bon grain de l’ivraie et, ansi, à rassurer les contributeurs quant à leurs chances d’obtenir les récompenses promises en échange des fonds qu’ils apportent. Ceci n’a pas empêché Indiegogo (le principal concurrent de Kickstarter sur le marché du reward-based crowdfunding) d’héberger cette campagne peu de temps après la décision de sa rivale.

Cet épisode donne matière à réflexion car on pourrait s’attendre à ce que la concurrence soit source de qualité, c’est-à-dire qu’elle amène les plateformes de crowdfunding à durcir leurs critères de sélection plutôt qu’à les adoucir. Je serais heureux de connaître votre opinion à ce sujet.

Sources des images: Les deux figures ont été réalisées par des chercheurs de la Chaire Valeurs et politiques des informations personnelles de Telecom ParisTech suite à une conférence que j’y ai donnée en juillet 2015 / mobiledevmemo.com / wired.co.uk

 

YouTube turns freemium

$
0
0

On October 28th YouTube launched its new subscription service YouTube Red. So far it is only available for viewers in the United States, who currently can test the service in a free one-month trial. Afterwards, YouTube Red will be priced at $9.99 a month.

What is YouTube Red all about? On its website the Google subsidiary lists three main features of its new service: ad-free videos, background play as well as the possibility to save and watch videos offline. Moreover, it connects with YouTube’s gaming and music app and gives users free access to Google Play Music (and vice versa, Google Play Music subscribers get free access to YouTube Red). From 2016 onward, YouTube Red will feature a members-only access to YouTube Originals, i.e., to new shows and movies exclusively produced for the platform. Some of this exclusive content will be made available later on to non-subscribers in the classic YouTube format (that is featuring ads).

With the introduction of YouTube Red, the network follows the example of companies such as Pandora, TuneIn or Hulu which recently started offering subscription-based, ad-free, membership options for their music- or video-streaming services. In this post I will have a closer look at YouTube Red to understand what motivates companies to change their business models from free to freemium and what challenges such a change in strategy entails.

YouTube’s rationale for introducing YouTube Red

At the moment, YouTube’s largest revenue stream is advertising. In its latest statistics the network reports that over the past years the number of advertisers on the platform increased by 40 percent, with the 100 largest advertisers spending, on average, 60 percent more. And one can expect those figures to increase over the next years. Especially younger viewers consume more and more video content online, and advertising revenues are following this trend (for more details see this article by Suzanne Vranica in the Wall Street Journal). YouTube, according to Nielsen accounts for more than 60 percent of all video content watched online and is thus successfully positioned to benefit from this trend.

So why change an apparently winning team? First, revenue does not equal profit and, in fact, according to an article by Rolfe Winkler in the Wall Street Journal, YouTube has yet to become a profitable business. Second, it is safe to say that not all of us are satisfied with the advertising-based model. Instead, over the past years the number of consumers that are actively trying to avoid advertising by using some type of ad-blocking software has been increasing steadily. According to a recent study by PageFair it reached 198 million in June 2015, a 41 percent increase over the last year. This trend has noticeable implications for companies who support their business by advertising revenues. For instance, by 2016, the global cost of ad-blocking, in terms of blocked revenue, is expected to reach $41.4 billion.

Let us come back to the example of YouTube. The presence of a relatively important share of users that is taking active measures to avoid advertisement, be it by skipping pre-roll ads or by using ad-blocking software, not only implies a direct, but also an indirect loss in revenues. In a direct sense, for YouTube every skipped or blocked ad represents lost advertising revenue. In an indirect sense, YouTube, so far, does not exploit consumers’ preference for an ad-free experience financially and by this misses out on an additional revenue stream. And this is where YouTube Red comes into play. By introducing the subscription service YouTube adopts a strategy of second-degree price discrimination (so-called menu pricing) that allows it to increase its revenue by capturing a higher share of consumer surplus.

However, there is more to it. YouTube Red is also a strategic move by Google to boost its music-streaming service Google Play Music and to gain a foothold in the highly competitive music- and video-streaming industries. Here YouTube might have an important edge over its pure-play competitors. It is active in both industries and by this may reap benefits from one-stop shopping.

If the future is a subscription marrying all media types together, YouTube Red might make its competitors green with content envy. (Josh Constine, TechCrunch)

How to make it work

An important, and straight-forward, question to ask is whether YouTube Red has what it takes to be successful. The answer to this question primarily depends on whether YouTube succeeds in convincing a sufficiently large number of its users and content creators to join the premium service.

Turning users into subscribers

Two important, if not the two most important, factors that decide about the fate of any freemium strategy are user base and conversion rate (for some further insights on freemium models you may want to have a look at this or this article on IPdigIT). In the given context, the two concepts respectively refer to the active number of YouTube users and the share of users that subscribes to YouTube Red.

  • User base. The user base is nothing YouTube has to worry about, at least for the moment. The network counts one billion of active users, who watch six billion of hours of video content per month and upload 300 hours of new content per minute – all with an upward tendency (for more statistics on YouTube see here).
  • Conversion rate. The conversion rate is another story. It is far from obvious that YouTube will succeed in convincing a sufficiently large number of its users to subscribe to the premium service. Here, a main challenge is that over the past ten years YouTube users grew accustomed to using the platform for free. Moreover, despite consumers’ apparent dislike for advertisement, the value-added of YouTube Red, relative to the standard YouTube experience, may not be enough to warrant a monthly $9.99. In particular, as it is fairly easy (and cheap) to avoid advertisement by skipping pre-roll ads or by adding some ad-block extension to one’s browser.

The primary challenge for YouTube is that it has trained both groups [consumers and content creators] to expect a different model … so it won’t be easy to overcome the inertia among users and content owners. That’s a huge hurdle to cross. (Kartik Hosanagar, Knowledge@Wharton)

On-boarding content creators

Clearly the success of YouTube Red does not exclusively rely on a sufficient number of subscribers. Instead, it is equally important to attract a sufficiently large number of (popular) content creators that will produce exclusive material for the premium service. The latter raises the value-added of YouTube Red and by this may turn additional YouTube users into YouTube Red subscribers.

On this subject YouTube seems to be doing well. In a statement to TechCrunch the network confirms that

the overwhelming majority of our partners, representing nearly 99% of the content watched on YouTube, have signed up.

To some this number may appear too good to be true. And indeed, it seems that it was not achieved in an entirely voluntarily way. As such, YouTube also mentions that

any “partner” creator who earns a cut of ad revenue but doesn’t agree to sign its revenue share deal for its new YouTube Red $9.99 ad-free subscription will have their videos hidden from public view on both the ad-supported and ad-free tiers. That includes videos by popular comedians, musicians, game commentators, and DIY instructors, though not the average person that uploads clips.

The strong bargaining power of YouTube hardly comes as a surprise. Despite the existence of competing platforms such as vimeo or dailymotion none of the latter is (yet) truly comparable to YouTube, particularly when it comes to user statistics. The risk of content creators leaving YouTube for other platforms should thus be minimal. In addition, given consumers’ ad-avoiding behavior, one cannot rule out the possibility that YouTube Red might be to the advantage of content creators. This depends largely on how YouTube decides to split subscription revenues with its creators.

I am wondering whether YouTube Red, in its current form, is a smart move or whether additional steps might be necessary to make it work?

Moreover, in my eyes, it also raises a much broader question: In the future, how are we going to pay for digital media content? Are advertising-revenue-based models sustainable or will subscription-based models become the norm? And if so, is the business model confined to digital media content or does it extend to other services that are currently free-to-use and supported by advertising-revenues (think for example of social networking sites)?

Viewing all 57 articles
Browse latest View live




Latest Images