Quantcast
Channel: Platforms – IPdigIT
Viewing all 57 articles
Browse latest View live

Targeted prices and privacy: the hidden cost of hiding

0
0

privacy

The recent developments in digital technologies (e-commerce, social media and networks, mobile computing, sensor technologies) have not only driven individuals to leave an increasingly long digital trace behind them, but have also made available the tools to assemble, harness and analyse large and complex datasets (so-called ‘Big data’). As a consequence, sellers now have expanded capabilities to track the behavior of their consumers and, thereby, to gain a better knowledge of them (in terms of tastes, habits, willingness to pay, etc). As an illustration, this Guardian article published in July 2014 lists a number of tools that sellers can use to track their consumers both online and offline.

Through online tracking mechanisms such as supercookies, browser fingerprinting, location-based identifiers, behavioural tracking, and social network leakage, marketers track both real-time behaviours on web sites – down to what you type, mouse over, purchase – and detailed personal data. So when you land on an e-commerce site, without telling the retailer anything about yourself, they know your age, gender, physical location, favourite websites, favourite movies, comments you’ve left across the web, estimates of your income, marital status, whether you own a home, etc.

This sophisticated tracking has also arrived in brick-and-mortar stores. In-store cellular and wi-fi signal tracking systems can monitor consumers as them move through malls and stores. Apple’s iBeacon technology is now being used to track consumers to within several feet of a location within a store and even at concerts. Video surveillance and eye tracking systems track what consumers look at, focus on, and are “engaged” by. One of the most far-reaching of these initiatives involves Facebook’s partnership with data firms Acxiom, Datalogix and Epsilon to connect in-store purchases from retailer loyalty card data to Facebook user profile data.

invisible manYet, the same technological developments have also enabled individuals to protect their privacy (e.g., by erasing their digital trace or by concealing their actions online). For instance, this article published by L’Usine Digitale in August 2015 describes several technologies that may allow you to live incognito in the digital age. First, you may want to use search engines like DuckDuckGo or Qwant that commit to respect your privacy by avoiding to track you. Second, if you don’t trust public cloud services (e.g., Dropbox or Google Drive) to store your personal data, you may install a personal cloud service (e.g., Cozy Cloud), which you can customize and fully control. Third, if you want to protect your emails from external intrusions, why not installing an email server, like Own-Mailbox, with strong privacy protection measures (e.g., automatic encryption) integrated at its core? Finally, if you are very paranoid farsighted, you may already want to prevent drones from spying above your house; the ‘drone catcher’ developed by Malou Tech may then come in handy. Or better, you may get in line to be among the first users of Harry Potter-like invisibility cloaks that researchers from UC Berkeley or the University of Rochester are currently developing.

cat and mouseDigital technologies are thus exacerbating a cat-and-mouse game between sellers and consumers: on one side, sellers (the big cats) use tracking and data analysis technologies to target advertising, product offerings and prices to their customers with an unprecedented precision; on the other side, consumers (the small mice) may want to use some hiding technologies to protect themselves against what could be perceived as an invasion of their privacy. (To see how economists try to estimate the value that individuals attach to their privacy, see the article by Eva-Maria Scholz on this blog).

Because both sides are now equipped with more sophisticated weaponry, it is not clear to determine who wins and who looses in this game.

We have already argued on this blog (here and here) that targeted advertising may lead to a win-win situation; in particular, consumers may benefit from more targeting when it intensifies competition among firms.

Consider now the use of big data and tracking technologies to target prices. This practice is known as price discrimination in economics. In its extreme form, called ‘personalized prices’, the seller charges a different price to each consumer. (Mikians et al. (2012) empirically demonstrate the existence of signs of such price discrimination on the Internet. This article published by The Conversation in April 2014 gives some examples.) Clearly, if the seller acquires a better knowledge of its consumers (and can prevent resale among consumers), it will be in a position to charge prices that come closer to the maximum price that each consumer would accept to pay.

The intuition suggests thus that in the case of price targeting, the cat is likely to prevail over the mice. This is especially true if the cat faces no competition. In particular, the theory shows that a monopolist that can price discriminate more easily will increase its profits at the expense of the well-being of the consumers.

One would therefore expect that if the mice can benefit from extra protection, i.e., if consumers can resort to hiding technologies as the ones described above, their situation would improve. In economic terms, better hiding technologies should allow consumers to recover (at least partially) the consumer surplus that the seller was able to capture by using better tracking technologies.

4278603209_08859b22a8_qAs my recent research shows, this intuition is not correct: adding insult to injury, the use of privacy-protecting technologies may decrease the well-being of consumers even further.

I establish this point in a monopoly setting where the firm has access to a tracking technology that allows it to identify the willingness to pay of its consumers with some probability; the firm then charges personalized prices to the consumers it identifies and a common regular price to the consumers it does not identify. Consumers have the possibility to acquire a hiding technology that makes the firm’s tracking technology inoperative.

The main result is that the consumer surplus is often larger when this hiding technology is not available. In fact, when the technology is available, the firm has two reasons to raise the regular price of its product. First, a higher regular price discourages hiding. Second, the very fact that some consumers decide to use the hiding technology allows the monopolist to identify them as consumers with a high willingness to pay for the product, who can thus be charged a higher price (consumers with a high willingness to pay are indeed those who can gain the most by hiding).

As a result, what some consumers gain by protecting their privacy is often more than offset by what the other consumers lose by paying a higher price. That is, consumers may end up collectively worse off when hiding technologies are available.

It is important to note that these results are likely to change if the seller faces competition from other sellers. This research is currently in progress. So, stay tuned!

 

(Photo credits: Josh Hallett – Tracey Mahler – Lisa Omarali)


Taking on Uber

0
0

Over the past six years, Uber has become a synonym for on-demand transportation services. The San-Francisco based start-up pioneered the industry and continues to hold the pole position in the American market. According to a recent article on Bloomberg, Uber currently seeks to raise $2.1 billion in a financing round that would value the company at $62.5 billion.

Uber is actively focusing on expanding its success beyond the United States. Here the company has an eye on the Asian market, notably on India and China. As such, Uber announced earlier this year that it plans to invest $1 billion each in the Chinese and Indian markets.

Nevertheless, there might be a few bumps ahead. As such, earlier this month, Lyft, Uber’s main competitor in the United States, together with Didi Kuaidi, Ola and GrabTaxi, the three largest on-demand transportation services in respectively China, India and South-East Asia, announced their global partnership. By this Lyft and Didi Kuaidi expand their previously formed alliance that was announced in September 2015. According to a press release, the four companies together “cover nearly all of Southeast Asia, India, China and the United States, reaching nearly 50 percent of the world’s population”.

Who are Uber, Lyft, Didi Kuaidi, Ola and GrabTaxi?

With an estimated market valuation of $50 billion, Uber is the leading on-demand transportation provider in the United States. Founded in 2009, the company currently serves more than 300 cities across 68 countries. On the Chinese market, it is active in approximately 20 cities and further reports that about 30% of its rides take place in the country. In India, Uber claims to hold a 40% share and to provide 200 thousand rides a day (see here and here).

Current_Lyft_logoFounded in 2012, Lyft is the second largest and fastest growing provider of on-demand transportation services in the United States. The company is valued at an estimated $2.6 billion and reportedly seeking to raise $500 million at a market valuation of $4 billion. According to this press release, Lyft provides 7 million rides a month across more than 190 cities.

267255LOGODidi Kuaidi grew out of a merger between Didi Dache and Juaidi Dache, China’s two largest on-demand transportation services, in February 2015. Didi Kuaidi invests heavily in expanding its services on the Chinese market and currently provides “7 million rides per day across 360 Chinese cities”. The merged entity holds an 83% market share in the Chinese private car-hailing market and has an estimated valuation of $15 billion. Earlier this year, the company invested $100 million in Lyft and participated in a $350 million and $500 million round of funding for respectively GrabTaxi and Ola (see this article by Johana Bhuiyan).

Ola_Cabs_logoOla acquired its second largest competitor, TaxiForSure, in March 2015. With a self-reported 80% market share the company is leading the Indian ridesharing market and reaches an estimated valuation of $2.5 billion. According to this press release, it currently serves 102 cities and receives more than one million booking requests per day.

GrabTaxi_LogoGrabTaxi is present in six South-East Asian countries (Indonesia, Malaysia, Philippines, Singapore, Vietnam and Thailand) where it provides up to 1.5 million rides a day. The company holds a 95% percent market share in the third-party taxi hailing market and is currently valued at an estimated $1.5 billion.

If you want to know more about the different providers of on-demand transportation services all around the world (and how they compare to Uber), have a look at the map below.

0908_uber-map2_2000

What’s in it for Lyft, Didi Kuaidi and its recent partners?

Cross-app service

One of the key aspects of the partnership is a cross-app service that will become available from 2016 onward. With this service clients of Lyft, Didi Kuaidi, Ola or GrabTaxi will be able to use their local apps when traveling to countries that are covered by the partnership (i.e., the United States, China, India and the six South-East Asian countries currently covered by GrabTaxi). For international clients, this cross-app service effectively eliminates any switching costs: they can continue to use their trusted local apps, in their language and currency. Take the case of Lyft users in the United States. When traveling to China (or any other country in the network) those users no longer have to switch to a local, i.e., Chinese, provider (and set-up and familiarize themselves with a new app, that may or may not be available in their language and/or currency). Instead they can continue to use their Lyft app to haul rides. In a nutshell, the cross-app service allows consumers to multi-home, i.e., to access the services of several (international) providers, at no cost.

Through this global partnership, […] international travelers can seamlessly access local on-demand rides by using the same application they use at home. Each company will handle mapping, routing and payments through a secure API, providing the best global experience for the millions of travelers that cross between the U.S., Southeast Asia, India and China every year. (PRNewswire)

Everything else being equal, the partnership thus increases the attractiveness of the apps offered by Lyft, Didi Kuaidi, Ola or GrabTaxi, relative to the ones by other (local) competitors that are not active in the countries covered by the partnership. As a corollary, the four companies may be able to attract new clients, especially among those that frequently travel between the countries in question.

This continuity in consumer experience that follows from the cross-app service has further implications. First, companies gain access to new international consumers, without having to adapt their offer (e.g., the language or interface of the app). This allows them to save resources by leveraging on the strength of their partners in their respective markets. Second, companies do not lose track of their clients when they travel to other countries. This gives companies access to new data and ultimately additional insights into consumer preferences. The increased information allows companies to increase the quality of their services and set themselves apart from their (local) competitors.

If you can’t beat them, join them

Uber and Co are two-sided platform businesses (more on this topic here on IPdigIT). As such, consumers are only one part of the equation. To grow successfully, it is equally important to attract a sufficient number of drivers for one’s service. And this is where Uber appears to be struggling. One of the main reasons seems to be that drivers do not sign exclusive contracts with transportation service providers and as such may be active on several platforms (nevertheless, at any given point in time, drivers obviously can only work for one provider). This brings with it that drivers are highly susceptible to financial incentives, such as subsidies or sign-up bonuses, and frequently switch between platforms. With a limited supply of (quality) drivers, it thus comes hardly as a surprise that continuously attracting drivers has become an expensive sport for Uber and its competitors.

The race for dominance in the Chinese transportation market is costing Didi Kuaidi and Uber, the two largest ride-hailing companies in the country, more than $1bn a year as they lavish money on incentives for drivers and passengers. (Leslie Hook and Charles Clover, Financial Times)

In that sense, the partnership is a smart move for its members. It allows them to gain a presence in international markets without having to fight incumbents. Notice that companies are taking active measures to increase driver loyalty (and the supply of drivers). For instance, Ola introduced a car leasing model and, more recently, a private loan program (similarly, Uber offers its Xchange leasing program). To be eligible for the loan program, drivers have to have been working for Ola for a minimum of six months and pay at least eight installments towards their car under the leasing model.

Another related advantage of the partnership, that is emphasized by its members, is its potential for sharing ideas and best practices, “from product innovations to driver support, technology developments, winning on the regulatory front, and approaches for managing local operations in a rapidly scaling organization” (Anthony Tan, CEO and co-founder of GrabTaxi). This point is of particular importance in the given context as the markets concerned are characterized by their distinct cultural norms, preferences, infrastructure and regulatory environments.

For Lyft, which is scrambling to catch up to Uber’s inexorable, global advance — and for Didi Kuaidi, Ola, or GrabTaxi, which are bracing themselves for it — allying with local players in international markets is a savvy move that will expand addressable market and the sharing of valuable competitive knowledge. (Johana Bhuiyan, BuzzFeed)

Finally, the partnership, at least in the short run, may relax competition between its members and allow them to focus on their own (local) markets, without having to fend off international competitors. Here I want to stress the “in the short run”. First, all partners show an interest in expanding their operations internationally. Second, I am wondering how sustainable the partnership is in the long run, particularly given the apparent difference between its members in terms of their current market positions and potential for (international) growth.

Entering international markets: to fight or not to fight?

Uber and Lyft are pursuing two very different expansion strategies. Whereas Uber is investing heavily in its own infrastructure in order to gain a foothold in international markets, Lyft is partnering up with incumbents. In a recent The New York Times article Farhad Manjoo reflects on both strategies and outlines two possible scenarios.

I can see the logic in this [the global partnership], and I even think there’s a pretty good chance it could work. Lots of American tech companies have tried to conquer China and India, and almost all have failed. Uber could squander lots of money trying. And maybe, just maybe, Lyft could emerge as a strong No. 2 here. In a market valued at hundreds of billions or possibly more than a trillion dollars, that’s not a bad play.

But it’s a very optimistic scenario. Here’s what could happen instead: Uber creates a near-monopoly in the United States, gets a foothold in other markets, and slowly expands that position to become dominant everywhere. So, sure, it’s risky and expensive, but if it works, there’s a big reward. And that gets to Uber’s big advantage: Operationally, so far, Uber has proved to be masterful. So while I think Lyft’s defense is smart, I would bet on Uber continuing to win.


I am interested in your opinion on this matter. In your eyes, does the alliance pose a threat to Uber’s expansion strategy in the Asian market or even its position on the American market? And what about other countries such as Latin America or Europe? Could Lyft adopt a similar strategy? And if so, would it be successful?


Cross-border parcel prices hamper EU-wide E-commerce

0
0

Wouter Vergote


 

The author of post is our colleague Wouter Vergote. Wouter holds of PhD in economics from Columbia University. He is currently associate professor of Economics at University Saint-Louis-Brussels, and has worked previously for the EU Commission (DG Competition) and for NERA. His areas of expertise are microeconomics, game theory and industrial organization. 


 

Firms, among which many SMEs, increasingly use digital platforms and their own web-shops to advertise and expedite the sale of their goods and services. E-commerce, as emphasized in a 2012 European Commission green paper, is nowadays an important driver of growth in the EU. Indeed, many people switch from visiting ‘brick and mortar’ shops to visiting online platforms (Zalando, Bol.com, Amazon, …) and/or websites (just to pick a less well-known one: yoboot.nl), comfortably seated while listening to their favorite music (equally provided by a digital platform).

Delivery

While initially performing this activity in a leisurely manner, stress levels may start to rise when noticing a hefty delivery charge, especially if you live ‘abroad’ from the seller’s point of view. True, some websites do not charge for delivery above a certain purchase threshold (Bol.com delivery is free of charge when total purchases exceed €20 in Belgium). However, a quick search may lead you to find out that the same product is offered by other digital sellers at a lower price … excluding delivery costs.

 

As stated in the Commission’s 2013 roadmap for completing the Single Market for parcel delivery:

A flexible and well-performing EU-wide delivery system will contribute directly to the enormous potential of e-commerce for boosting growth and creating jobs.

But how well does the cross-border EU delivery market perform?

An econometric study, based on price data provided by the European Commission, by Anouk Claes and Wouter Vergote, both at the University of Saint-Louis, Brussels, seems to confirm the existence of large differences between cross-border and domestic letter and parcel prices. The study (December 2015) shows that cross-border parcel prices are 4 to 5 times higher than their domestic equivalent across all products. In addition, the study does not find an apparent link between the real cost and the prices of the delivery.

Based on the the study, the Commission Vice-President Andrus Ansip, in charge of the Digital Single Market, said:

… The high prices and inefficiency of cross-border parcel delivery deter people from selling to, or buying from other EU countries. This means that e-commerce is not being used to its full potential. We now need to make sure that it can develop across all of the European Union, putting this important part of the Digital Single Market strategy into effect as quickly as possible.

In the presence of (partially) segmented markets (the Spanish Correos does no have postal offices in Denmark) with literally thousands of different products, price regulation at an EU-wide scale does not seem the right regulatory response. This view is shared by the Commission. Commissioner Elżbieta Bieńkowska (Internal market, Industry, Entrepreneurship and SMEs) said:

Our objective is to make shipments of cross-border parcels seamless and more affordable for both individuals and SMEs – not by regulating prices or imposing caps but by increasing transparency and competition.

 

Post boxes

Three results of the study are particularly noteworthy and may inform future regulation.

  1. Liberalization seems to have a strong disciplining effect on prices. Does this imply that one should refrain from ex ante price regulation and rather aim for (more effective?) ex-post regulation through competition law?
  2. We find indications that the volume of (incoming) e-commerce leads to lower cross-border price differentials. Fostering more EU-wide e-commerce would then create dynamic efficiencies. Does this not plead for being lenient on ‘appropriate’ co-operation between operators, for regulation on transparency and interoperability and for policies to reduce entry barriers?
  3. Interestingly, the study also finds indirect evidence that vertical integration reduces cross-border price differentials: both the UK and French National Postal Operators, owners of DPD and GLS respectively, ‘charge’ lower cross-border price differentials, indicating that the NPOs’ ability to use their own ground network in destination countries to deliver the products leads to lower cross-border prices. This would imply that vertical mergers are not necessarily detrimental to cross-border e-commerce. On the contrary, they may have positive effects on e-retailers and on EU online buyers.

(Photo credit: Kieren P via VisualHunt.com / CC BY-SATrevorLowe via Visual hunt / CC BY-NC-ND)

Incumbents and the sharing economy: the example of GM

0
0

© Deloitte, 2015: The sharing economy.

It is safe to say that the automotive industry experiences some turmoil; cars themselves, as well as the way we are using them, are changing profoundly. Traditional, petrol-powered, cars are slowly being replaced by electric cars and potentially fully autonomous vehicles. On the consumer level, a shift in consumption patterns, away from ownership to usage, challenges the traditional car ownership model. As such, over the past years, we have seen the rise of on-demand transportation and car-sharing services. For some, companies such as Uber or Zipcar are convenient ways to outsource driving and make owning a car in itself unnecessary. For others, it makes owning a car worthwhile as it allows them to provide their services to the sharing economy.

Confronted with such disruptive changes, incumbents in the automotive industry are faced with the question of how to respond. To shed some light on the issue, I will have a look at the strategy of General Motors (GM). Why GM? Turns out, January has been a busy month for the Detroit-based carmaker. GM not only acquired Sidecar and teamed up with Lyft, two providers of on-demand transportation services, but also launched Maven, its own car-sharing service.

Partnering with Lyft

© Lyft

On January 4th, GM announced its strategic alliance with Lyft, the San-Francisco based provider of on-demand transportation services. In the United States, Lyft is the second largest and fastest growing provider of on-demand transportation services and provides 7 million rides a month, across more than 190 cities (I discuss Lyft and competition in the ride-sharing/-hailing industry here on IPdigIT).

In practical terms, the alliance implies that GM will invest $500 million in the start-up and Daniel Ammann, GM’s president, will join Lyft’s board of directors. But there is more to it. Key elements of the alliance further include the joint development of a car rental model for drivers as well as a network of on-demand autonomous cars.

  • A car rental model for Lyft drivers. GM and Lyft will set up a series of short-term car rental hubs in various cities across the United States. More specifically, people who want to work for Lyft, but do not own a car, can pick up a vehicle at these hubs and GM will be the preferred provider. For Lyft, the deal increases its supply of drivers (depending on the rental price and Lyft’s ability to ensure that the cars are only used for its own service). For GM, it represents an opportunity to set a foot in the ride-sharing/-hailing economy. Here the threat of a demand cannibalization for GM should be minimal as the focal point of its traditional owner-driver type of business is not in urban centers.

“The biggest part of GM’s business will continue to be the owner-driver model where someone buys a car and owns it, use it when they need to, and park it when it’s not in use,” he [Daniel Ammann] says. That model still works well, especially in the suburbs, where the company still makes most of its money, according to Ammann. Elsewhere, he says, it’s a different story. (Davey Alba, WIRED)

  • A network of on-demand autonomous cars. Setting up a series of car rental hubs is only an intermediate step, the long-run goal of the alliance is a network of on-demand autonomous cars. Over the past decade, companies such as Google, Tesla or Uber – only to name a few – joined the race towards a driverless future. And GM is no exception. Since it started collaborating with Carnegie Mellon University back in 2007, the carmaker devoted enormous resources to developing autonomous vehicle technology. “Why partner at all?” or “Why not team-up with Uber instead?”, some may wonder. Indeed, Uber recently made headlines by poaching 40 researchers and scientists from Carnegie Mellon University and launching its new research center for autonomous cars in Pittsburgh. However, also when it comes to autonomous cars, Uber sticks to its do-it-yourself mentality. Notice also that the race is not necessarily won by putting an autonomous car on the market. It is equally about getting consumers into them.

The Lyft-GM deal differs in one crucial way from any other effort. More than just getting the self-driving car built, the two companies working together offers the clearest picture yet of how those cars might actually be used. (Davey Alba, WIRED)

Exploring new technology: Mobileye and OnStar

© General Motors

Just one day later, on January the 5th, GM announced its plans to explore a new technology from Mobileye to build maps that support fully autonomous driving. GM started collaborating with Mobileye, a technology company that develops advanced collision avoidance systems, about ten years ago and uses its software on its car cameras.

The plan is the following. Mobileye’s technology is able to “detect vehicles, pedestrians, and other obstacles, as well as road markings, signs, and traffic lights“. With the right data, it is thus able to build highly detailed and constantly updated maps that bring autonomous driving one step closer to reality.

This is where GM’s OnStar system comes into play. OnStar is a GM subsidiary that grew out of a collaboration between GM, Electronic Data Systems and Hughes Electronics Corporation in 1995 (joined by Verizon Wireless in 2011). It combines different safety, connectivity and navigation features such as various security and emergency services, Wi-Fi service or remote access. Most important, it enables GM to obtain the precise, real-time data that is crucial for building high-definition maps. To give you an idea of the current state of research, today’s GPS systems have a margin of error of about 10 meters. Mobileye expects to reduce this margin to about 10 centimeters.

Naturally, this plan hinges on collecting a sufficient amount of data, and by this on a widespread use of GM’s OnStar system. It is now clear that there are additional benefits to being the preferred provider for Lyft’s short-term rental hubs (GM announced that “Lyft drivers and customers will have access to GM’s […] OnStar services“).

Acquiring Sidecar assets

© Sidecar

On January 19th, it became public that GM had acquired Sidecar, another player in the on-demand transportation industry. Founded in 2012, Sidecar has been around since the early days of the industry and contributed substantially to its success. Nevertheless, with competition toughening, it was quickly left behind by its rivals. In early 2015, the start-up shifted its focus on the delivery business, however, despite its efforts, decided to shut down its operations in December 2015.

At first glance, the move might seem a little odd, especially given GM’s alliance with Lyft. Surely, the acquisition is rumored to have been a rather attractive deal for GM (with an alleged acquisition price less than the $39 million raised by Sidecar). Also, Sidecar’s Chief Technology Officer and Co-founder Jahan Khanna, as well as twenty other employees will join the carmaker. For GM, the decisive factor, however, is something else. Paul Sunil, Co-founder and CEO of Sidecar (not joining GM), explains that a key component of the agreement is a license to Sidecar patents, notably “the US Patent #6356838 for “System and method for determining an efficient transportation route”“. Maulin Shah, managing attorney at Envision IP, comments on the importance of the deal:

Sidecar’s patent appears to be highly fundamental to this industry, and Sidecar is the only company among the group that owns an issued patent.  The patent has 95 forward citations from later-filed patent applications owned by Microsoft, Research in Motion, Cisco, IBM, Sprint, General Motors, Honda Motor Co., Mitsubishi, Tom Tom, and Navteq.

There are speculations about what GM might do (or be able to do) with the license. Generally, this depends on a couple of factors, among others, whether GM is the exclusive licensee of the patent. Fact is also that in the past Sidecar never went to court. This leaves the strength of the patent untested. In any case, GM most likely prefers knowing the patent in its own IP portfolio, than in the ones of its competitors.

Introducing Maven

© General Motors

The final puzzle piece is the launch of Maven, GM’s own Personal Mobility Brand. Official news of Maven broke on January 21st, however, GM registered the trademark back in November 2015. Maven essentially combines several of GM’s initiatives in the car-sharing market.

  • A car-sharing service in Ann Arbor, Michigan, that, for now, focuses on serving faculty and students at the university of Michigan (there are plans to expand the service to other cities in the United States within the year). Further plans include the launch of a car-sharing service for apartment-building residents in Chicago as well as the expansion of a similar, already existing, program in New York City.
  • Existing global initiatives such as peer-to-peer car-sharing in Germany via CarUnity (according to GM, roughly 10,000 users in Frankfurt and Berlin joined the marketplace since mid-2015).
  • Diverse programs on campuses in the United States, Europe and China to test and refine Maven’s future service offerings.

Julia Steyn, Vice President at GM, emphasizes that a key element of Maven is customization; “We believe it’s important in the car sharing experience for the passenger and customer to feel like it’s your own vehicle“.

Maven customers will experience seamless smartphone and keyless integration with the vehicle. Maven customers use its app to search for and reserve a vehicle by location or car type and unlock the vehicle with their smartphone. The app also enables remote functions such as starting, heating or cooling and more. Customers can bring their digital lives into the vehicle through Apple CarPlay, Android Auto, OnStar, SiriusXM radio and 4GLTE wireless. Each vehicle will provide an ownership-like experience with the convenience of car-sharing. (GM, Press release)

Customization and convenience, together with an hourly rate as low as $6 (that is including insurance and gas) and no subscription fee (a clear distinction from competing services such as Zipcar or Car2Go) may convince consumers to give Maven a try.

Note also that GM’s OnStar system is once again part of the offer. This relates to another point. In itself, Maven should yield only little financial incentives for GM (compared to its other areas of business). The move mainly makes sense in light of GM’s efforts for building a network of self-driving cars. With Maven, GM lays the foundation for its own network of autonomous cars, reducing its dependence from Lyft in the long run.

Oh sure, there’s money to be made in car-sharing, as ZipCar and others have shown. But it’s small potatoes for a company like GM. It isn’t until you take the long view that this move makes sense. Maven can be the foundation for the self-driving car network GM wants to build. (Alex Davies, WIRED)


What are your thoughts on GM’s strategy? Can you think of other examples of how incumbents start joining the sharing economy?


Conference: Big Data in the Platform Economy (May 13, 2016)

0
0

On Friday May 13, 2016, IPdigIT (together with CIPI, CORE and Crides) organizes a one-day conference on ‘Big Data in the Platform Economy‘. The venue is Microsoft Innovation Center (Rue Montoyer 51, 1000 Brussels). Admission is free, but online registration is required.

To register and to see the full program of the conference, please follow this link.


Big data 2
Big Data is often presented as a mine whose exploitation could open new avenues for reigniting the economy. New data analytics tools are developed to exploit the huge volume of very diverse data that are continuously generated by the use of a growing number of connected devices. Many companies envisage to better exploit the data linked to their business, for instance to improve their marketing strategy. Other organizations can also benefit from data insights to better focus their activities.

Large online platforms have already built successful business models around the exploitation of big data. Data aggregation by those platforms (for instance by social networks) poses new problems. The increasing importance of data as a component of the digital economy has probably to be factored in the competition law analysis. Big data usually comprises personal data, which raises additional issues for the assessment of data dominance.

Collecting, accessing and sharing big data raise other new legal issues, which are the focus of ex ante regulation. Those legal issues include the need for new exceptions to intellectual property, such as the text and data mining exception within copyright, the portability of data over platforms, the fine-tuning of the existing sui generis protection under the Database directive, etc.

The conference aims to present the potentialities and tools of big data analytics, to explore various ways for companies and organizations to exploit big data, and to discuss whether the legal framework is fit for regulating the data-related issues. The program is divided into four sessions focusing on big data for, respectively, engineers and data scientists, economists and managers, competition lawyers, and regulators.

Some of the issues to be discussed include: What are the new tools for big data analytics? How do online platforms exploit the potential of big data? How to assess the functioning of digital markets and their reliance on data exploitation? Should competition law be revised to factor in the role of data aggregation? What rules should be amended to promote the exploitation of big data while protecting individual consumers and ensuring fair competition?

(Photo credit: KamiPhuc)

“Big Data in the Platform Economy”– A Digest of the Conference

0
0

BDiPE

On May 13, 2016, the editors of IPdigIT organized a one-day conference to study the growing importance of ‘Big data in the platform economy‘. To this end, they assembled a panel of experts from several disciplines: applied mathematics, engineering, economics, management, policy-making, and law. (You can find the general description of the conference here). The conference, held in the premises of the Microsoft Innovation Center in Brussels (whose efficient and kind support is gratefully acknowledged) was a real success, according to the feedback we received from numerous participants.

In this post, we give you a short summary of the various presentations made during the day; we also give you access to the speakers’ slides.

Session 1. Big data, engineers, and analysts

The aim of the first session was to address the following questions: What is Big Data? What are the data analytics tools? What are the risks?

1. Gautier Krings (Chief Scientist at Real Impact Analytics and invited lecturer at UCLouvain) described the multiple facets of big data, from the technical challenges to the practical applications (Slides).

2. Rudy Van Hoe (Solution Sales Manager at Microsoft) presented Microsoft’s advanced analytics solutions, and told us that even cows can generate useful big data once they are properly connected! (Slides)

3. Julien Hendrickx (Assistant Professor and chair of the Department of Mathematical Engineering at UCLouvain) explained that even ‘safe-looking’ datasets may lead to privacy risks when they are combined. (Slides)

Session 1 speakers

 

Session 2. Big data, economists, and managers

In this second session, the speakers addressed the following questions: How, and to what purpose, do organizations exploit big data?

4. Pierre-Nicolas Schwab (Big Data / CRM manager at RTBF, researcher at Solvay Business School, and the founder of IntoTheMinds) described the trends and challenges of the big data business, with a focus on marketing applications. You can view his Prezi presentation here.

5. Wouter Vergote (Associate Professor in Economics at University Saint-Louis, Brussels) explained how big data can facilitate differential pricing and examined the pros and cons for consumers. (Slides)

6. Adeline Decuyper (Post-doctoral fellow in Geography at CORE, UCLouvain) showed how mobile phone data can support development programs; for instance, mobile phone data can help improve food security in Africa. (Slides)

Session 2 speakers

Session 3. Big data and competition lawyers

We started the afternoon with a session examining the role for personal data and big data in the regulation by competition law.

7. Cyril Ritter (Lawyer for the European Commission’s DG Competition) discussed the implications of big data for competition policy. He argued that the issue is not so much about data per se but about how data is used.

8. Inge Graef (PhD fellow at CITIP, KULeuven) pursued on the topic of data and competition law. She examined whether a ‘market for data’ should be defined and, if yes, how. (Slides)

9. Alexandre de Streel (Professor of European law at the University of Namur, and director of CRIDS and CERRE) argued that competition policy must be a complement, not a substitute, for consumer and privacy protection. (Slides)

Session 3 speakers

Session 4 – Big data and regulators

The final session aimed to address the following question: Is there a need to adjust intellectual property and data protection rules in the era of big Data?

10. Benoît Michaux (Partner with Hoyng Rokh Monegier, associate professor of IP law at the University of Namur and a Cepani arbitrator for domain-name disputes) made the connection between big data and copyright and database protection, talking about the scope of and the exceptions to these rights.

11. Christian D’Cunha (Assistant to the EDPS, European Data Protection Supervisor) presented and discussed the EU General Data Protection Regulation. (Slides)

Session 4 speakers

 

Understanding the strategies of crowdfunding platforms

0
0

(This article, co-authored by Paul Belleflamme, Nessrine Omrani and Martin Peitz, has been published in the CESIfo DICE Report of June 2016, which also presents five other articles on crowdfunding.)


Money

Crowdfunding can be seen as an open call made through the Internet to provide financial resources to support new ventures. Several forms of crowdfunding coexist, which mainly differ by the type of compensation that they propose to funders. Compensations can be monetary or not. In the former case, funders are investors and may be offered equity stakes (‘crowdinvesting’), interest payments (‘crowdlending’), or a fraction of profits (‘royalty-based crowdfunding’). In the latter case, funders are consumers or donors and may be offered a product in pre-sale, combined with some perks (‘reward-based crowdfunding’), or some warm glow (‘donation-based crowdfunding’).

Whatever its form, crowdfunding mostly takes place on crowdfunding platforms (CFPs). Our objective in this article is twofold: we want to show why and how CFPs facilitate the interaction between entrepreneurs trying to raise funds (the ‘fundraisers’) and consumers/investors willing to participate in the financing of new projects (the ‘funders’). The ‘why’ has to do with the external effects that crowdfunding generates, not only across the groups of funders and fundraisers, but also within each of these groups; we argue that the complexity of these effects is much more efficiently dealt with by a CFP than through bilateral relationships between funders and fundraisers. As for the ‘how’, we present the strategies that CFPs put in place to address the problems raised by the various external effects.

Crowdfunding and external effects

CFPs can be seen as ‘two-sided platforms’: they enable the interaction between two ‘sides’ (here, fundraisers and funders) whose demands need to be coordinated. The open and large-scale nature of crowdfunding explains why an intermediary (i.e., a CFP) can achieve this coordination more efficiently – i.e., at lower transaction costs – than the members of the two sides by themselves. The transaction costs stem from the presence of external effects across the two groups: the value that each group attaches to the interaction depends on the participation of the other group. Typically, the more funders participate the more crowdfunding becomes attractive for fundraisers, and vice versa. We expect thus these so-called ‘cross-group external effects’ to be positive on both sides; we also expect CFPs to manage these external effects by choosing an appropriate price structure for the access and participation on the platform by the two groups.

247810564_4c4cbaebe5_z

As we now show, things are slightly more complex. First, some cross-group external effects may be negative. Second, there also exist ‘within-group external effects’, according to which the value that a user attaches to the interaction with the other group also depends on the participation within this user’s own group. Finally, CFPs also use a wide array of non-price strategies to manage the various external effects.

Cross-group external effects on CFPs

Cross-group external effects arise when one group’s valuation of the platform depends on the participation of the other group. Let us first examine the impacts of funders’ participation on fundraisers. These effects are positive without any ambiguity. A platform that attracts a larger pool of potential funders benefits fundraisers in two ways. First, and quite obviously, the presence of a larger crowd of funders increases any fundraiser’s chance to finance their project. Second, entrepreneurs often use CFPs as marketing channels to evaluate (and possibly stimulate) the demand for their product. (The fact that large companies, which have an easy access to capital markets, use CFPs is an indirect proof that crowdfunding is not just about funding. For instance, Sony has launched a CFP, First Flight, to test the popularity–rather than to finance–its own new products.) Again, the larger the crowd of consumers/investors, the more efficient this market testing can be. Yet, to the extent that fundraisers use a project on a CFP as part of a price discrimination strategy, they may not always be interested in an expansion of the pool of funders. A necessary condition for this to happen is that not only the size but also the composition of the group of funders on a CFP will have to change.

As for the impacts of fundraisers’ participation on funders, it seems at first glance that they are positive as well. We can indeed see two reasons why funders are likely to prefer platforms with a larger number of fundraisers: first, platforms with more fundraisers provide funders with a wider choice of projects to fund; second, when compensations are non-monetary, funders are more likely to obtain rewards that fit their tastes on platforms that attract many fundraisers. One can think, however, of a couple of mitigating factors. First, a larger number of campaigns on a platform could reduce the chance that any of them would be successful (i.e., would reach the required threshold), which would affect funders negatively. Yet, as such risk results from coordination failures among funders, CFPs can neutralize it by guiding interested funders to campaigns that are close to become a success. A second negative cross-group external effect would arise if asymmetric information problems became more serious as the number of fundraisers on a platform grows larger. As discussed below, information asymmetries cause two types of issues for funders on CFPs: funders may not only lack the necessary information to assess the chances of success of the proposed campaigns, and they may also not be able to control how fundraisers use the funds that they have collected. Whether these problems are more acute (or the cost for funders and platforms to alleviate these problems are larger) on platforms with more fundraisers is an empirical question.

Within-group external effects on CFPs

Fundraisers and funders also care about the participation on the platform of the members of their own group. Within the group of fundraisers, external effects are mostly negative: as fundraisers compete for funders’ contributions, the more campaigns a platform hosts, the tougher the competition. However, a larger pool of fellow fundraisers may favor the exchange of good practices among them, or may attract a larger supply of consultancy services adapted to crowdfunding. This suggests that external effects may sometimes be positive within the group of fundraisers. (Strictly speaking, there are positive feedback effects between fundraisers and CFP-specific providers of consulting service who constitute a third side of the platform.)

Within the group of funders, external effects can be expected to be positive. This is certainly so if a project needs to reach a pre-specified threshold of financing to be carried out. This is known as the ‘threshold-pledge’ or ‘All-or-Nothing’ (AON) model (an alternative is the ‘flexible funding’ or ‘Keep-it-all’ (KIA) model, which allows a fundraiser to collect any funds raised even when the target is not reached). In this case, the presence of additional funders on a platform increases the probability that any project will be realized, which benefits all funders.

1-eyeglasses-on-laptop

Other external effects may also come into play within the group of funders. They result from the sequential process that funding follows on CFPs, which induces a form of dynamic behavior among funders. We have already mentioned that asymmetries of information prevail on CFPs as, typically, funders have little information about the reliability of fundraisers and the quality of their projects. Because funding is sequential, funders may try to infer information from the behavior of fellow funders (even if those do not possess better information to start with). In particular, funders may rely on the existing support for a given project to gauge its potential, thereby creating a type of peer-effect known as ‘collective attention effect’. The sign of this effect – i.e., whether it ultimately benefits or harms funders – depends on the first funders. For instance, if the first funders had poor information or made a bad decision, herding will lead subsequent funders to back the wrong horse. There are reasons to believe that this scenario is relevant in practice, as funders lack the capabilities and the incentive to devote the appropriate resources to due diligence. There is thus a ‘collective-action problem’ in that funders naturally tend to free ride on fellow funders to collect information about the fundraisers’ chances of success. Finally, another form of free-riding may create a negative external effect: in the AON model, when the financing of a project comes close to the threshold, it may become harder to induce funders to provide the remaining financing as they may rely on other funders to do it.

Figure 1 summarizes the various cross-group and within-group external effects that crowdfunding generates.

Figure 1. External effects on crowdfunding platforms

Figure 1. External effects on crowdfunding platforms

Strategies of CFPs

The presence of strong and intertwined cross-group and within-group external effects in crowdfunding limits the ability of fundraisers and funders to conduct transactions bilaterally in an efficient way. This creates business opportunities for intermediation, which CFPs try to seize by designing adequate strategies. These strategies aim at creating value for the two groups by driving agents to ‘internalize’ (i.e., to integrate into their decision-making process) the effects that their actions have across or within their group. Naturally, to achieve a profitable business model, CFPs must find ways to capture a sufficient share of the value that they create for their users. We consider in turn price and non-price strategies

Price strategies

Currently, most CFPs charge only one group or impose a “tax” on a successful transaction. The common practice is to charge a transaction fee to fundraisers as a percent basis for all successful campaigns (unsuccessful campaigns are generally not taxed). As for funders, they usually do not pay any explicit fee. Yet, insofar as time elapses between the moment funders contribute money and the moment this money is either passed on to fundraisers (when the campaign is successful) or returned to the funders (otherwise), funders incur a foregone interest when investing (early) in a project, which can be seen as an implicit fee.

prices

This reliance on transaction fees is common on two-sided platforms, especially in new markets where participants have little understanding of the value they attach to the interaction with the other group(s). The reason is that imposing subscription fees may scare participants away, which would jeopardize the launch of the platform. Pushing this logic one step further, participation may even be subsidized for some participants, especially in the early life of the platform. For instance, it is not rare that CFPs do not wait for fundraisers to join the platform but actively seek for the most interesting of them and later, facilitate their campaigns on the platform.

On top of the tax levied on transactions, CFPs usually have two other sources of revenues. First, as just explained, they earn interest on the money pledged by funders; second, they may also offer additional paying services to the two groups; for instance, CFPs may charge for handling payments, for supporting projects, or for releasing information on previous projects.

Non-price strategies

CFPs also use non-price strategies to manage cross-group external effects. First and foremost, CFPs have to choose a mechanism for raising funds. As described above, the choice is primarily between the ‘All-or-Nothing’ (AON) and ‘Keep-it-all’ (KIA) mechanisms. In the AON model, fundraisers have first to specify a target, knowing that they will not receive any of the money that has been pledged if this target is not reached. Although this mechanism may not seem terribly attractive for fundraisers (compared to the KIA model where any money pledged can be kept), it has the advantage to protect funders as it drives fundraisers to set realistic funding targets that match more closely the funding that they need to achieve their project. As cross-group external effects from funders to fundraisers are generally positive, choosing the AON mechanism to reassure funders is an indirect way to make the platform more attractive for fundraisers.

Another indirect advantage of the AON model for fundraisers is that it makes some funders ‘pivotal’ insofar as it is their contribution that makes total funding reach the target. This is especially important in the context of reward-based crowdfunding, where funders receive the project’s product as compensation for their funding. Fundraisers are then in a position to raise their profits by charging different prices for their product to consumers/investors who are pivotal and to those who are not.

screening

This being said, fundraisers may prefer the flexibility of the KIA model (even though CFPs usually charge higher fees on funds that fundraisers keep when the target is not reached). If so, choosing AON would discourage fundraisers to join the platform and, through cross-group external effects, would discourage funders as well. An alternative is to propose both models and let fundraisers choose. A benefit of this solution is that funders now have the possibility to make inferences from the fundraisers’ choices: it is indeed documented that by choosing AON, fundraisers credibly signal to funders that they commit not to undertake their project if they do not reach the target; funders can then see the investment in such projects as less “risky”, which allows fundraisers to increase their chances of success. The choice between AON and KIA should be largely driven by how the benefit from a project depends on the funding level. If the use of funds below the threshold level is highly inefficient AON should be the preferred funding format.

Apart from managing cross-group effects, CFPs also design specific strategies to address asymmetric information problems (acknowledging, as we have just seen, that some strategies address the two issues at once). We can distinguish between two generic types of problems: hidden information problems (funders often lack the necessary information to estimate the chances of success of the proposed campaigns) and hidden action problems (funders have a hard time to control how fundraisers use the collected funds).

A first instrument in mitigating hidden information problems is direct screening: CFPs conduct due diligence themselves and reject projects that are deemed too risky. Alternatively (or complementarily), CFPs may provide funders with a market-based screening mechanism; for instance, some crowdlending platforms give funders access to ‘soft’ information about fundraisers (such as the maximum interest rate they are willing to pay, a textual description of their reasons for the loan application, or their picture). Studies show that funders can predict default with more precision on the basis of such nonstandard information than with the use of more traditional screening methods based on credit score. Finally, CFPs may also bring sophisticated investors on board the platform. This may include institutional investors, venture capitalists, or business angels, that have much larger capacities and experience in due diligence. Their presence is thus likely to reassure funders, as more information will be made available about the chances of success of the proposed campaigns.

As for hidden action problems (a.k.a. moral hazard), a first immediate measure is to invest in an adequate monitoring system so as to avoid – or at least limit – severe opportunism problems by fundraisers, such as outright fraud. In the same vein, CFPs can prevent fundraisers to use the arriving funds before the success of a campaign is assured by taking control of making the financial transaction. Another strategy is to install a reputation system. Naturally, such a system can only work if fundraisers repeatedly use a given CFP and have some persistent abilities. Then, the CFP can use the track record of a given fundraiser to provide funders with useful information about this fundraiser’s reliability. To enrich this reputation system, the CFP can also tap into the wealth of information available on social networks; it has indeed been documented that the number of friends that fundraisers have on Facebook can be used as a predictor of the success of their projects. Finally, CFPs may also find ways to insure funders against a number of risks; for instance, some crowdlending platforms choose to partner with banks to insure against market risks.

Conclusion

Our goal in this article was to show that crowdfunding platforms are at the heart of the current development of the different forms of crowdfunding. Without the intermediation services that these platforms provide, fundraisers and funders would not be able to interact in an efficient way. To make our point, we have described the ‘why’ (i.e., the complex web of external effects that crowdfunding generates for funders and fundraisers), as well as the ‘how’ (the price and non-price strategies that platforms deploy to address these external effects).

Even if crowdfunding is still nascent and is thus bound to evolve, we believe that the framework of analysis that we propose here will remain relevant and help us comprehend future developments.

 

(All photos via Visualhunt.com; credits to: Qaanaaq / Victoria Reay / edans)

Uberisation : quelques clés pour mieux comprendre

0
0

Dans un article récent, le journal Le Monde explique comment Ben Becker et Elliot Glass, deux Américains actifs dans le monde de la publicité, ont habilement trompé leur monde en orchestrant une campagne de lancement pour une fausse application, prétendument destinée à devenir un Uber pour crottes de chien:

Pooper est l’une de ces start-up que nous connaissons bien, qui vous propose, moyennant modeste finance, de vous simplifier la vie. Design épuré et élégant, clip vidéo léché, présenté par un jeune archétype de l’entrepreneur branché (moins de 30 ans, lunettes et chemise à carreaux), le site Internet de Pooper (« poop » signifie « caca » en anglais) copie tous les codes des entreprises de l’économie collaborative, comme Airbnb ou Uber. Un seul détail devrait mettre la puce à l’oreille du lecteur averti : le logo, une petite crotte stylisée (blanche sur fond vert) avec un sourire en dessous.

pooper-logo

Au-delà du canular et du ‘happening’ artistique, Becker et Glass se sont livrés à une satire plutôt féroce d’une économie digitale peuplée de startups qui proposent des applications et des plateformes pour tout et, à leurs yeux, n’importe quoi. Newsweek utilise ces termes: “The target of Pooper’s satire is an innovation economy that prioritizes trivial “hacks” instead of addressing genuine societal ills.”

Qu’est-ce que l’uberisation?

Dans le monde francophone, on a créé le néologisme uberisation pour décrire ce phénomène. Comme le terme est récent, ses contours sont encore assez flous. Il est donc important de prendre un peu de recul pour tenter de répondre aux questions suivantes: Que faut-il exactement entendre par uberisation? Quels sont les facteurs qui favorisent ou freinent son développement? Quels en sont les impacts économiques pour le fonctionnement de l’économie?

C’est la mission que j’ai confiée à deux étudiants de la Louvain School of Management. Dans leur travail de fin d’études, intitulé “Uberisation : définition, impacts et perspectives” (que vous pouvez télécharger ici), Renan Lechien et Louis Tinel proposent d’abord leur propre définition de l’uberisation. Pour ce faire, ils ont compilé les éléments proposés par un large panel d’intervenants (consultants, acteurs de l’économie collaborative, scientifiques, journalistes, …), de manière à réunir différents points de vue. Selon eux,

L’uberisation d’une industrie peut être définie comme étant un phénomène présentant les deux caractéristiques suivantes : l’entrée d’une plateforme P2P [‘peer-to-peer’] dans une industrie existante, ainsi que le bouleversement des rapports de force entre les entreprises établies de cette industrie et la plateforme P2P. L’uberisation de l’économie correspond donc à l’émergence de ce phénomène dans de plus en plus de secteurs.

uberisation

Qui peut se faire ‘ubériser’?

En s’appuyant sur cette définition, les auteurs examinent ensuite les facteurs pouvant favoriser ou défavoriser l’uberisation. Il s’agit de répondre à la question suivante: pourquoi certains secteurs économiques sont-ils plus sujets que d’autres à l’uberisation? On peut mettre les facteurs suivants en évidence.

  • Le niveau de confiance que les ‘pairs’ doivent avoir les uns envers les autres pour qu’une transaction puisse se réaliser. Plus ce niveau est élevé, plus il sera couteux pour une plateforme virtuelle de mettre en place les mécanismes permettant de rassurer les parties prenantes quant à leur fiabilité respective (via des systèmes de réputation, de recommendation, etc).
  • La complexité des services échangés. L’uberisation repose sur des plateformes P2P, ce qui équivaut à dire que le service concerné doit pouvoir être offert par un large réservoir de ‘pairs’, c’est-à-dire des individus sans qualification particulière. La seule condition est que ces individus disposent de ressources inutilisées qu’ils sont prêts à mettre à disposition d’autres pairs (d’où l’idée d’une économie ‘collaborative’ ou ‘de partage’). Plus un service est complexe (ou plus il requiert de qualifications particulières), plus le nombre de ‘pairs’ pouvant l’offrir est réduit, ce qui met nécessairement à mal le modèle P2P.
  • Les caractéristiques des biens échangés. Selon leurs caractéristiques, certains biens seront plutôt échangés selon le schéma classique d’achat/vente, tandis que d’autres se prêteront à ces nouveaux modes d’échange basés sur le partage, le prêt ou la location. Ainsi, des biens que l’on utilise quasiment en permanence (des lunettes) ou que l’on peut devoir utiliser à n’importe quel moment (un générateur de secours) peuvent difficilement être prêtés ou partagés. A l’inverse, des biens relativement chers qu’on utilise peu souvent et de façon prévisible (une perceuse) peuvent, sans trop de dificulté, être mis à disposition d’autres utilisateurs quand on n’en a pas l’usage (pour autant, bien sûr, que les coûts de transport ne soient pas prohibitifs; pour plus de détails, voir Horton and Zeckhauser, 2016).

Sharing

Que faire si l’on est ‘uberisé’?

Dans la troisième partie de leur travail, Lechien et Tinel analysent les stratégies que peuvent déployer des entreprises installées quand elles se voient menacées par l’entrée de plateformes P2P. Les compagnies de taxi sont les premières à avoir été ‘uberisées’ (le terme prenant ici sa signification litérale); on pense aussi aux chaines hotelières et aux hotels indépendants qui doivent réagir face à l’entrée de Airbnb. Nous reprenons ici les recommandations que font Matzler, Veider et Kathan (2015) pour contrer l’entrée de plateformes P2P (ou en minimiser l’impact négatif) :

  • Vendre l’usage du produit plutôt que le produit lui-même (comme Daimler l’a fait avec son service de partage de voitures car2go);
  • Aider les clients à revendre leurs biens (à l’image de la plateforme de revente de meubles proposée par Ikea);
  • Exploiter les ressources et capacités inutilisées (par exemple, le partage de bureaux en collaborant avec une plateforme comme LiquidSpace);
  • Offrir un service de réparation et de maintenance (comme Best Buy l’a fait en rachetant Geek Squad, spécialisé dans la réparation d’ordinateurs);
  • Utiliser l’économie P2P pour cibler de nouveaux clients (à l’instar de Pepsi qui s’est allié avec la plateforme Task Rabbit pour lancer un nouveau soft drink);
  • Développer un nouveau modèle d’affaires via l’économie P2P (comme la plateforme Kuhleasing.ch créée par des fermiers suisses pour louer des vaches et des séjours à l’alpage, ou comme GM le fait via son acquisition de Sidecar).

Dans le reste de leur travail, Renan Lechien et Louis Tinel tentent de mesurer le pour et le contre de l’uberisation pour le fonctionnement de l’économie. Ils envisagent aussi les conséquences de l’uberisation pour la régulation. Ils terminent leur travail en appliquant leur analyse au cas de l’entrée d’Uber dans l’industrie du taxi.

Je vous invite vivement à consulter leur travail car il propose un cadre d’analyse pertinent pour comprendre les tenants et les aboutissants de l’uberisation. Un thème que nous ne manquerons pas de continuer à explorer sur IPdigIT!


Photo credit 1: eric.delcroix via VisualHunt / CC BY-NC-SA

Photo credit 2: Frits Ahlefeldt, Hiking.org via VisualHunt / CC BY-NC-ND


Tendances économiques de la médiatisation

0
0

Le 15 novembre 2016 s’est tenue à Mines ParisTech la conférence ‘Médiatiser l’innovation’ (le programme se trouve ici). Cet article en fait le compte-rendu.


Un besoin d’ordre

La publicité suit l’évolution des médias. Tous les jours apparaissent de nouvelles techniques, de nouveaux supports, de nouveaux moyens d’adapter la communication de marques soucieuses de parler à chaque consommateur. Tous les jours s’accumulent des données permettant de mesurer l’étendue, voire l’efficacité de ces pratiques. La dimension empirique du marketing conduit à décrire et promouvoir ces phénomènes comme une liste infinie de nouveautés.
Pourtant ces phénomènes suivent une direction commune, celle d’un meilleur rendement des investissements publicitaires. Cet objectif induit un ciblage accru de la communication vers les consommateurs auxquels elle est le plus utile. Il est particulièrement sensible lorsqu’il s’agit de médiatiser un produit nouveau, encore inconnu du public. La conférence « Médiatiser l’Innovation », organisée le 15 novembre 2016 par la Chaire MINES ParisTech d’économie des médias et des marques, voulait éprouver cette hypothèse. Son programme figure en annexe. En voici le compte-rendu raisonné.

CMJN de base

Synthèse des débats

L’approche économique

La publicité, et plus largement, la médiatisation, peut être perçue comme un bien complémentaire du bien mis en marché [1]. Ce bien informationnel qui concourt à la représentation sociale du produit, a la dimension d’un surplus (ou d’un défaut) de qualité, plus ou moins valorisé par le consommateur. Certains consommateurs l’apprécient, d’autres en sont embarrassés. L’économie de la médiatisation analyse les conditions de production et de diffusion de ce complément, ainsi que sa valorisation dans la vente des produits. Les possibilités de reprise et de résonance dans la diffusion des informations rendent cette économie très dépendante de la dynamique des médias. En outre, les annonceurs ont intérêt à cibler leurs messages vers les consommateurs les plus réceptifs – ceux qui les jugeront utiles. La poursuite de cet objectif suscite de nombreux instruments de mesure et de guidage.

L’offre des médias

La conférence a d’abord mis en perspective les nouvelles formes de dissémination des messages à travers des médias de plus en plus segmentés. L’introduction de Gautier Picquet (Publicis Media) souligne la domination émergente d’Internet et des terminaux mobiles, ainsi que la forte pénétration des algorithmes dans le ciblage de la publicité. Selon lui, la transformation en cours vise à passer d’une médiatisation de masse – symbolisée par la presse et le broadcast – à l’individuation de la communication vers des profils mieux cernés. La trajectoire de cette mutation, sa durée et son impact sur les marchés de médias sont encore incertains, mais le mouvement est en marche. La transition qui affecte d’abord les médias de masse est l’occasion d’une reconfiguration des portefeuilles des grandes firmes de médias.

targeting

Sylvia Tassan Toffola (TF1 Publicité) illustre cette tendance par la prolifération éditoriale de la télévision : segmentation accrue des chaînes et des programmes, recherche de nouveaux évènements et de nouveaux publics, dé-linéarisation des programmes de fiction, combinaison du média de masse et de plateformes numériques, valorisation de tous les écrans de réception, ciblage de la publicité vers des profils mieux discriminés. Cette recherche d’une discrimination plus fine des consommateurs affecte aussi bien la distribution que la publicité : l’usage de canaux multiples permet de distribuer des fictions sous plusieurs versions et selon plusieurs tarifs, et de s’adresser à leurs publics par des moyens publicitaires ad hoc.

Pour Olivier Robert-Murphy (Universal Music), la musique participe également de cette logique. D’un côté, les artistes inventent des univers partageables par des marques : celles-ci peuvent atteindre leurs publics à travers la musique et la réputation des talents. De l’autre, la musique suscite des émotions, des évocations intimes que les marques peuvent intégrer dans leur communication. La musique s’impose ainsi comme un média à part entière, à la fois vecteur de diffusion et de sens, dont chaque talent est un canal capable de cibler des publics et d’enrichir des messages.

La demande des marques

La difficulté d’une approche transversale de la médiatisation tient à la diversité des besoins de chaque marque, à la saisonnalité de ses marchés, à la place des nouveaux produits dans la construction de son image. Les études de cas présentées par Ekimetrics sur l’automobile (avec Laurent Aliphat, Renault), sur l’opposition entre parfums et cosmétiques (Paul Seguineau), et sur les assurances (avec Rodolphe Rodriguez, Axa) illustrent ces spécificités.

L’industrie automobile croît avec les nouveaux modèles, car seule l’innovation permet d’esquiver les rabais. Face à l’obsolescence rapide et à de lourds investissements en design et développement, la médiatisation de la nouveauté est critique. Or, la construction de l’image prend des années, la médiatisation étant de second ordre par rapport à la visibilité des véhicules dans la rue. D’où l’importance stratégique du lancement qui permet d’atteindre la masse critique de clients donnant au véhicule cette visibilité ; la relation entre ventes et médiatisation est un cercle tantôt vertueux ou vicieux. En outre, chaque modèle ne concourt pas également à l’image consolidée de la marque automobile ni à sa visibilité : la marque doit choisir les modèles et les clients sur lesquels capitaliser son mythe, son pouvoir prescripteur.

cosmetics

Paradoxalement, les parfums et les cosmétiques recourent à des médiatisations très différentes. Pour les parfums, chaque nouveauté est une création. Elle convoque un univers, un imaginaire porteur de significations. Celui-ci doit être d’autant plus largement partagé que les parfums sont offerts en cadeau, surtout en période de fêtes. La communication de masse, forcément prestigieuse, est portée par des talents, des égéries, de la musique, symboles de créativité. Les marques éditrices capitalisent sur tous ces univers qui sont autant de nouvelles marques. A l’inverse, l’innovation des cosmétiques vise la performance. Leur médiatisation s’appuie sur le retour d’expérience, l’individuation d’une pratique. Dans ce registre, le rédactionnel, les conseils ou tutoriels édités par les réseaux sociaux s’avèrent indispensables. La concurrence entre marques y est beaucoup plus ouverte puisque c’est l’innovation, et non le contexte créatif, qui est mise en valeur. Les marques ont ici davantage valeur de label.

La stratégie de lancement d’Hello Bank, nouvel entrant sur le marché très disputé de la banque en ligne, combine aussi communication de masse et individuation : filiale de BNP, la marque vise une notoriété autonome et la personnalisation du service à chaque client. Sa communication, décrite par Ariel Steinmann, articule la mise en avant du nom à la capture de clientèle, puis à la mobilisation prescriptive de celle-ci. Identifiée à la mobilité, Hello Bank utilise la télévision pour présenter sa gamme de services : les bulles de BD qui encadrent son message évoquent l’échange verbal entre individus. Elles font le pont avec les réseaux sociaux qui diffusent ses innovations ou ses offres promotionnelles au sein de communautés de clients. Ceux-ci sont incités à se fédérer en groupes et à parrainer de nouveaux membres. L’interface du téléphone mobile se prête idéalement à cette communication individuée que le service bancaire peut entretenir à loisir.

Nouveaux médias, nouvelles apostrophes

Le ciblage des annonceurs fait surgir de nouveaux médias et de nouvelles techniques qui, à terme, façonnent le rapport du consommateur aux sollicitations.

crowdfunding

Les plateformes de crowdfunding ont pour vocation d’exposer des produits innovants. Pour Paul Belleflamme (UCL), ces outils qui visent à tester la demande et à créer des communautés proches des marques sont avant tout des médias. Sujettes aux effets de réseau, les plateformes sont en quête d’audience : plus il y a de demandeurs, plus les apporteurs de fonds espèrent trouver de bons projets, plus les projets sont médiatisés. Le crowdfunding, comme son nom l’indique, lève davantage des « foules » – de l’attention – que de l’argent. Pour autant, les retombées médiatiques ne sont pas toujours positives, les commentaires des projets pouvant s’avérer très critiques.

Autre média adapté au ciblage, « les influenceurs », les leaders de communautés sur les médias sociaux. Selon Claudie Voland-Rivet (UDA), ces éditeurs hybrides s’avèrent très efficaces pour le lancement d’un produit, la diffusion de messages ou de contenus, l’organisation d’événements, la communication de crise. Leur puissance médiatique s’évalue par de nouveaux indicateurs : exposition, écho, part de voix… Initialement dispersés et bénévoles, les influenceurs se professionnalisent, organisant peu à peu un marché capable de relayer en masse ou de cibler des audiences spécifiques. La maturation réglementaire (normalisation de l’influence) et commerciale (réseaux de contractants) de ce marché progresse rapidement.

Pour Frédéric Josué (Havas 18), l’individu est immergé dans un univers piloté par les marques. Chaque événement social se prête à communication. Derrière ce processus et les données qu’il engendre, se développent des algorithmes qui modélisent les comportements. La logique d’extension du ciblage incite ainsi les consommateurs, dans leur environnement domestique ou professionnel, à répondre à des offres profilées.

Resist

D’où la révolte de Pierre-Nicolas Schwab (RTBF) : les consommateurs vont ils se conformer à leur modèle, autrement dit consommer docilement ce qu’un prolongement de leur historique aura prescrit ? Ne va-t-on pas assister, au fur et à mesure que se développe cette tendance, à des formes de résistance, des pratiques visant à y échapper ? N’est-ce pas là le rôle des médias publics visant à entretenir l’esprit critique des citoyens ? Quant au plan commercial, le ciblage ne produit-il pas sa propre usure en dégradant rapidement la tolérance aux sollicitations ?

Les enjeux de la mesure

La mesure de l’efficacité de la publicité progresse depuis dix ans. Initialement basée sur la corrélation entre achat de médias et chiffre d’affaires, elle devient plus complexe au fur et à mesure que se multiplient les canaux tant pour la communication que pour la vente.

Measure

Pour Jean-Baptiste Bouzige (Ekimetrics), cette tendance oblige à ouvrir la boîte noire du processus d’achat. La communication de masse représentait ce processus par un entonnoir dans lequel se précisait la perception d’une offre. Le marketing moderne identifie un « parcours » dans lequel le consommateur sélectionne et élimine des marques jusqu’à se fixer sur un produit. Dans ce processus interviennent de nombreuses influences, y compris les retours d’expérience d’autres consommateurs. La structure de la communication combine donc deux formes idéales : la voie traditionnelle, raffinant la perception de la marque par des campagnes emboîtées ; la voie inverse, focalisée sur l’achat et faisant remonter le retour d’expérience. Au plan économique, cette seconde approche privilégie les effets de réseau : elle amplifie le rôle prescripteur des adeptes précoces et la fidélisation des clients engagés. Les médias concernés et les moyens d’achat ne sont donc pas les mêmes que dans la voie classique. Dans ce nouvel univers, les mesures d’efficacité se veulent holistiques et traitent les deux voies. Elles visent à piloter les choix de marketing en fonction des performances commerciales de chaque produit.

Cette approche se retrouve dans la pige publicitaire dont la fonction originelle était de structurer le marché de l’espace. Or, la mesure de la médiatisation gratuite ne peut avoir pour objectif de gérer des achats. En outre, le bruit médiatique ne véhicule pas de messages préconçus. Pour François Nicolon (Kantar), les outils de mesure doivent certes quantifier le bruit (c’est la fonction de l’UBM – Unité de Bruit Médiatique), mais aussi intégrer des variables qualitatives servant à piloter les relations publiques. La mesure de l’empreinte médiatique est donc un outil spécifique à chaque type de marché et s’inscrit dans un processus de pilotage où l’action s’adapte dynamiquement à l’évaluation de ses effets. Il est probable qu’au fur et à mesure de la consolidation des nouveaux médias, des règles apparaîtront permettant de systématiser des pratiques encore expérimentales.

La pression des annonceurs pour plus de transparence et un retour sur investissement affecte aussi les agences. Baptiste Tougeron illustre comment, chez Havas, une plateforme de décision marketing est dédiée à la collecte des données de chaque marque et à sa réinjection dans le processus de ses actions média. Cette plateforme traite l’évolution quotidienne d’indicateurs clés et vise un relèvement de la performance des investissements publicitaires : Havas promet à ses clients une hausse du retour sur investissement de 1,9% en 2017 et de 6% en 2019…

Pour conclure

Cette conférence, bien qu’expérimentale, confirme l’intérêt d’une lecture économique des transformations du secteur de la communication. Le traitement de la médiatisation comme un bien complémentaire, comparable à un surplus de qualité relevant l’utilité des uns, mais dégradant celle des autres, permet de décrypter :

  • La possible saturation de la communication de masse, trop peu sélective, touchant un grand nombre de consommateurs valorisant mal les messages,
  • Sa substitution progressive par une communication individuée capable de discriminer les messages – le complément médiatique (ainsi d’ailleurs que le bien principal, à commencer par les services) – auprès des consommateurs réceptifs,
  • La mutation des médias de masse vers des groupes multicanaux capables de discriminer les messages et les publics,
  • La recherche d’effets de réseau – d’accroissement viral de la demande – dans le lancement des produits par une implication plus forte des consommateurs dans la prescription,
  • L’apparition de médias et d’algorithmes destinés à mieux cibler les messages, mais aussi, le rejet larvé de cette pratique par des consommateurs devenus plus méfiants,
  • Le développement de techniques de mesure ne visant plus seulement à structurer les achats d’espace, mais à mieux ajuster les efforts médiatiques à la performance commerciale des produits.

Ces phénomènes induisent une réorganisation profonde de tous les métiers de la communication et des firmes qui les exercent. Ils requièrent des efforts d’analyse économique permettant de dépasser la chronique des innovations pour anticiper les changements de l’organisation industrielle. Et occasionner de nouveaux partenariats, de nouvelles recherches et débats publics à l’initiative la Chaire organisatrice de la conférence.


[1] Thèse de Gary S. Becker et Kevin M. Murphy, dans leur célèbre article de 1993 : « A Simple Theory of Advertising as a Good or Bad », The Quarterly Journal of Economics, Vol. 108, No. 4 (Nov., 1993), pp. 941-964 .


Photo credits: Frits Ahlefeldt, Hiking.org via VisualHunt.com / CC BY-NC-ND // Visualhunt // Rocío Lara via Visual Hunt / CC BY-SA // Jeff Scism via Visual hunt / CC BY-NC // Visualhunt

Take Eat Easy (1). Une histoire à partager

0
0

Quand on parle de “l’économie du partage”, on se concentre généralement sur les quelques success-stories (ou supposées comme telles) que sont Uber et Airbnb. Or, il faut savoir partager aussi les histoires de semi-réussites ou d’échecs, car il y a autant – si pas plus – à apprendre d’elles. Tel est le parti pris de cette série d’articles, articulée autour du cas de Take Eat Easy.

Un peu d’histoire

TEE dos tourné

Lancée à Bruxelles en 2013, Take Eat Easy est une plateforme organisant la distribution de repas en servant d’intermédiaire entre des restaurateurs, des coursiers et des clients. L’ambition de la plateforme est de créer de la valeur pour chacun de ces groupes : une chalandise étendue sans coût ni risque pour les restaurateurs, des compléments de revenu pour les coursiers et des repas de qualité livrés à domicile pour les clients. Pour ce faire, la plateforme s’appuie sur des algorithmes et des mécanismes d’automatisation des expéditions qui sont rendus possibles par une utilisation intelligente des technologies digitales (smartphones et géolocalisation). Pour monétiser ses services, la plateforme prélève une commission sur chaque commande apportée au restaurant et fait payer une participation aux clients pour la livraison. Très vite, la plateforme déploie ses activités dans d’autres villes que Bruxelles ; elle se lance à Paris en octobre 2014, puis à Berlin, Londres et Madrid à l’été 2015. Son objectif est de devenir la première société de livraison de repas de qualité en Europe. Pour soutenir cette croissance, la start-up lève 6 millions d’euros en avril 2015 lors d’un premier tour de table auprès de sociétés de venture capital ; quelques mois plus tard, elle lève 10 millions d’euros supplémentaires. Alors que la plateforme franchit le cap du million de commandes passées sur son site et que son modèle séduit plus de 350.000 clients dans une vingtaine de villes, Take Eat Easy annonce brutalement en juillet 2016 qu’elle se place en redressement judiciaire.

Que s’est-il passé ? Pourquoi cette plateforme qui semblait si bien se développer a-t-elle dû, subitement, mettre la clé sous la porte ? L’ambition de cette série de trois articles est de répondre à ces questions. Dans un premier temps, je résume ce que l’analyse économique des plateformes digitales nous apprend pour comprendre la dynamique concurrentielle qui est à l’oeuvre dans ces marchés. Ensuite, je donne la parole au principal intéressé, à savoir Adrien Roose, fondateur et CEO de Take Eat Easy. Enfin, je m’appuie sur ces deux analyses pour m’interroger sur la soutenabilité du modèle d’affaires des plateformes de l’économie dite “du partage”. [1]


Comment fonctionnent les plateformes P2P? Une analyse microéconomique

Take Eat Easy fait partie de ce qu’on appelle les ‘plateformes de l’économie du partage’ ou ‘plateformes P2P’. On regroupe sous ce vocable les entreprises (essentiellement marchandes) qui, à l’instar de Uber et Airbnb, tiennent des places de marché dites ‘de pair à pair’ (‘peer-to-peer’ en anglais; en abrégé, P2P), c’est-à-dire qu’elles facilitent l’échange de biens et services entre ‘pairs’. Le terme ‘pair’ est employé pour souligner que dans la plupart des cas, les utilisateurs de ces plateformes peuvent y opérer indifféremment du côté de l’offre ou du côté de la demande. Il n’y a donc pas, a priori, d’indentification claire des rôles de chacun (par exemple, dans le cas de Take Eat Easy, une même personne peut utiliser la plateforme tantôt comme client, tantôt comme coursier).

Plateformes à multiples versants

Les places de marché P2P sont organisées via des plateformes digitales que l’on peut qualifier de ‘plateformes à multiples versants’ (en anglais, ‘multi-sided platforms’). Evans (2011) [2] relève qu’une opportunité d’affaires émerge pour une plateforme à multiples versants lorsque des groupes distincts d’agents économiques (les ‘versants’ de la plateforme) sont désireux d’interagir mais font face à des coûts de transaction trop importants pour organiser cette interaction par eux-mêmes ; la plateforme crée alors de la valeur en servant d’intermédiaire entre les groupes, c’est-à-dire en internalisant (en tout ou en partie) les effets externes que génère l’interaction entre ces groupes. Dans le cas précis de Take Eat Easy, les versants sont au nombre de trois puisque la plateforme organise une interaction tripartite entre restaurants, coursiers et consommateurs.

Effets externes

Dans le cas des plateformes de l’économie collaborative, quels sont les effets externes en présence ? La plupart des plateformes favorisent l’interaction entre deux groupes : les producteurs et les consommateurs. Commençons par identifier les effets externes qui existent entre les groupes. Il s’agit d’estimer la manière dont les membres d’un groupe valorisent une participation accrue des membres de l’autre groupe. Il semble clair que les effets sont positifs dans les deux directions : plus nombreux sont les producteurs affiliés à la plateforme, plus les consommateurs auront de chances de trouver le produit/service qui convient à leurs besoins ; de même, plus il y a de consommateurs connectés, plus larges seront les débouchés potentiels pour les producteurs. Un plus grand nombre de participants, et donc de transactions, peut également permettre à la plateforme d’augmenter la qualité de ses services d’intermédiation. En effet, les participants et les transactions nourrissent de larges bases de données (les ‘big data’) dont le traitement permet d’affiner la pertinence des algorithmes sur lesquels sont basés les systèmes de réputation et de recommandation que proposent les plateformes, ou d’améliorer la logistique des services offerts par la plateforme (comme c’est le cas pour Take Eat Easy).

Des effets externes peuvent également survenir au sein des groupes. Chez les consommateurs, le bouche-à-oreille génère des effets positifs : plus une plateforme est utilisée, plus on en parle et plus elle apparaît comme attractive aux yeux d’autres consommateurs. Naturellement, cet effet peut se retourner si une forme de congestion s’installe (par exemple parce que la plateforme est mal équipée pour traiter une masse croissante de transactions). Un autre type d’effets externes entre consommateurs peut résulter de la manière dont la plateforme tarifie ses services. Par exemple, la tarification dynamique que pratique Uber fait dépendre les prix de l’état de l’offre et de la demande à tout moment ; ainsi, les prix risquent de flamber les soirs de pluie à l’heure de la sortie des salles de spectacles (un moment où la demande est largement excédentaire par rapport à l’offre). Au sein du groupe des producteurs, les effets externes peuvent également être des deux signes. La concurrence à laquelle peuvent se livrer les producteurs est un effet externe négatif. A l’inverse, le fait d’attirer, collectivement, des prestataires de services complémentaires représente un effet externe positif (par exemple, les services de conciergerie ou de nettoyage qui se développent autour de Airbnb). La Figure ci-dessous résume les différents effets externes.

Effets externes

Effets externes sur les plateformes P2P

‘Uberisation’

L’émergence de plateformes P2P perturbe le fonctionnement de nombreux secteurs. On pense bien sûr au transport en voiture (avec Uber, ainsi que Lyft ou BlaBlaCar) et à l’hébergement (avec Airbnb) ; mais d’autres secteurs sont touchés également, comme la livraison (avec Instacart, Postmates), la restauration (avec MenuNextDoor), l’emploi à la demande (avec TaskRabbit, Handy) et même le secteur bancaire (avec Lending Club, Funding Circle),

Le terme ‘uberisation’ a été proposé pour décrire les bouleversements provoqués par l’entrée de ces start-ups. Sous ce terme se cache une nouvelle forme de concurrence, une concurrence qui s’exerce d’abord en amont via la forme d’organisation (plateforme versus firme intégrée) et ensuite en aval via les prix et la qualité des produits ou services (comme on a l’habitude de le voir),

Le choix de l’organisation en plateforme plutôt qu’en firme intégrée a des conséquences importantes au niveau des coûts, de la qualité et des prix, des conséquences qui peuvent se transformer en autant d’avantages concurrentiels pour les firmes entrantes par rapport aux firmes déjà installées.

Cost

Au niveau des coûts, la différence fondamentale provient du fait que ces start-ups ne produisent rien elles-mêmes : leur activité consiste à mettre en relation des producteurs indépendants et des consommateurs. Elles ont donc une structure de coûts radicalement différente de celle des firmes conventionnelles avec lesquelles elles entrent en concurrence. Les firmes conventionnelles ont des coûts de production qu’elles se sont efforcées de réduire en développant leurs activités. Ces économies d’échelle et/ou de gamme constituent généralement des barrières à l’entrée. Mais, comme l’explique Taneja (2015), ces barrières sont largement inopérantes face à des firmes qui ont des coûts d’intermédiation plutôt que des coûts de production. [3] Ainsi, une chaîne hôtelière intégrée comme Accor a réussi, par sa seule taille, à décourager l’entrée de concurrents du même type (ou à les pousser vers la sortie), mais n’a rien pu faire contre l’entrée d’Airbnb qui ne possède pas la moindre chambre d’hôtel. En outre, ces différences de coûts sont parfois amplifiées par le fait que les plateformes entrantes échappent (du moins pour un temps) aux régulations auxquelles sont soumises les firmes déjà en place. Ce dernier point fait rimer, chez les firmes conventionnelles, ‘uberisation’ avec concurrence déloyale.

L’organisation en plateforme a également des implications en termes de qualité des produits et services offerts aux consommateurs. Parce qu’elles ne produisent rien elles-mêmes, les plateformes sont beaucoup plus flexibles que les firmes conventionnelles (qui sont tenues par leurs choix de production et leurs investissements passés). Elles peuvent donc se concentrer sur les produits et services qui correspondent aux goûts des consommateurs, en les adaptant rapidement si nécessaire. De plus, en utilisant intelligemment les technologies digitales, les plateformes rendent les produits et services qu’elles offrent plus faciles et agréables à utiliser.

Chicken&egg

Finalement, au niveau des prix, les plateformes choisissent généralement des structures de prix asymétriques vu qu’elles doivent motiver la participation d’un groupe pour garantir la participation de l’autre (le problème ‘oeuf-poule’, comme on a coutume de l’appeler). Cela peut inciter les plateformes à réduire le prix qu’elles font payer aux consommateurs. La raison est que la recette additionnelle obtenue d’un consommateur supplémentaire ne se limite pas au prix que ce consommateur paye ; elle inclut aussi l’effet externe positif que ce consommateur génère du côté des producteurs. En d’autres termes, la plateforme peut trouver optimal de réduire (voire annuler) la marge qu’elle réalise du côté des consommateurs pour accroître les revenus qu’elle obtient du côté des producteurs. Un tel choix est parfaitement logique pour une plateforme qui internalise les effets externes positifs entre les ‘versants’ qu’elle sert. Mais, aux yeux des firmes conventionnelles qui sont verticalement intégrées, il y a une raison de plus pour crier à la concurrence déloyale.

Ces éléments d’analyse économique devraient nous permettre de mieux comprendre les raisons qui ont amené la direction de Take Eat Easy à jeter le gant, telles que décrites par Adrien Roose dans le deuxième article de cette série.


Notes

[1] Ces trois articles sont adaptés d’un chapitre que j’ai écrit pour le livre ‘La consommation collaborative. Enjeux et défis de la nouvelle société du partage‘, dirigé par Alain Decrop (Université de Namur) et à paraître chez De Boeck.

[2] EVANS, D.S., (2011), “Platform economics: Essays on multi-sided businesses”, Competition Policy International.

[3] TANEJA, H., (2015), “Why Startups Are More Successful than Ever at Unbundling Incumbents”, Harvard Business Review (18 juin 2015).


Crédits photo : Le Soir //  Thomas Hawk via Visual hunt / CC BY-NC // widdowquinn via Visualhunt / CC BY-NC-SA

 

Take Eat Easy (2). La parole au fondateur

0
0

Dans ce deuxième volet de la série consacrée à la plateforme Take Eat Easy, IPdigIT donne la parole à Adrien Roose, un des co-fondateurs de la plateforme, qui fut aussi son dernier CEO. (Le premier article de la série présente quelques balises économiques pour comprendre l’économie des plateformes dites ‘P2P’; le troisième s’interroge sur la soutenabilité du modèle d’affaires de ces plateformes.)


(IPdigIT) Adrien Roose, vous êtes un des co-fondateurs de Take Eat Easy et vous étiez son CEO. Pouvez-vous nous expliquer pourquoi vous avez été contraints à mettre la clé sous la porte alors que l’entreprise semblait engagée sur la voie du succès, avec un taux de croissance de l’ordre de 30% par mois ?

(Adrien Roose) Les raisons sont assez simples à énoncer. D’une part, nous faisions des pertes (les revenus ne couvraient pas les coûts) ; d’autre part, nous n’avons pas réussi à boucler notre troisième levée de fonds, alors que notre concurrent direct, Deliveroo, était parvenu à se renforcer.

Mais réaliser des pertes au début de son existence n’est pas vraiment une tare pour les plateformes de l’économie du partage ; l’état actuel d’Uber en est la preuve. De plus, vous ne cessiez d’améliorer votre logistique de manière à dégager des marges positives. Pourquoi, dès lors, les investisseurs ont-ils cessé de vous faire confiance ?

Adrien Roose

A nouveau, la raison est simple : le marché de la livraison de repas à vélo est du type ‘winner-takes-all’. Pourquoi ? Parce qu’une grande plateforme est plus performante qu’une petite vu qu’elle bénéficie d’une part, des effets de renforcement positifs entre restaurateurs et clients et d’autre part, d’économies d’échelle dans la logistique. Assez naturellement, la grande plateforme devient alors plus grande et la petite, plus petite. Il n’y a donc de place que pour un seul intermédiaire. Les investisseurs ne le savent que trop bien et ils financent donc en priorité la plateforme qui apparaît la mieux placée pour remporter le marché. En 2016, il s’agissait de Deliveroo. Bien que nous ayons lancé nos activités au même moment, Deliveroo a rapidement pris de l’avance car leur capital de départ était plus élevé et ils avaient l’avantage de s’être déployés sur une ville bien plus rentable que la nôtre (Londres plutôt que Bruxelles). Ensuite, même si nous sommes arrivés les premiers à Paris, nous n’avons pas pu lutter à armes égales avec Deliveroo car ils pouvaient se permettre des dépenses de marketing dix fois supérieures aux nôtres. Grâce à cette avance grandissante, Deliveroo a peu à peu asséché le marché en termes de capitaux, ce qui explique notre échec dans notre troisième levée de fonds.

Quote A

Deliveroo est à présent menacé par l’entrée de poids lourds comme Amazon Restaurants et UberEats (qui s’est d’ailleurs installé dans vos anciens locaux à Bruxelles). Qu’est-ce que tout cela vous inspire ?

Delivery

C’est, malheureusement pour eux, la même histoire qui se répète. Même si Deliveroo a atteint une taille critique, Amazon Restaurants ou UberEats sont capables de renverser sa position dominante actuelle car ces entreprises ont des poches assez profondes pour soutenir une guerre des prix. Vu les capitaux dont elles disposent, elles peuvent se permettre d’être plus attractives que Deliveroo sur tous les fronts : réduire le prix de la livraison pour les clients, réduire la commission retenue chez les restaurateurs, mieux payer les coursiers. Au final, c’est celui qui peut creuser son trou le plus longtemps qui finit par l’emporter. Les managers de Deliveroo sont bien conscients de cette menace et tentent de réagir. Ils prétendent se différencier en privilégiant la qualité des repas et des livraisons ; mais, nous avions tenté de faire de même à l’époque et nous nous étions rendu compte que l’amélioration de la qualité ne pouvait être que marginale aux yeux des clients. L’autre piste qu’ils poursuivent est de s’écarter du modèle de plateforme pour revenir, en quelque sorte, vers un modèle plus intégré : ils investissent en effet dans des cuisines industrielles pour les mettre à disposition de leurs meilleurs restaurateurs, ceci de manière à augmenter l’offre de repas dans des zones urbaines où il y a moins de restaurants.

Quote B

On a lu cette phrase dans la presse suite à l’annonce de l’arrêt de vos activités : «Qu’une start-up doive tirer la prise n’est pas un échec… c’est un apprentissage». Qu’avez-vous appris et quels conseils pourriez-vous donner à des entrepreneurs qui voudraient lancer une nouvelle plateforme ?

Stratego

J’ai appris énormément de choses, c’est certain ! Mais donner des conseils est toujours délicat vu que chaque situation est particulière. Il y a néanmoins des leçons que j’ai tirées de notre expérience et que je peux partager. Le reproche que nous pourrions nous faire est que nous n’avons pas compris (ou n’avons pas voulu voir) suffisamment tôt que ce marché est profondément du type ‘winner-takes-all’. Si nous l’avions perçu plus tôt, nous aurions sans doute suivi une stratégie plus ‘militaire’, en ne livrant que les batailles que nous pouvions gagner. Nous aurions dû nous rendre compte que certaines villes, comme Londres ou Madrid, n’étaient déjà plus à notre portée ; sachant cela, nous aurions dû soit ne pas y entrer, soit nous en retirer plus tôt de manière à concentrer nos moyens là où nous étions en position de force. Donc, un conseil que je pourrais donner est de ne pas faire de la croissance un but en soi. Un autre conseil est qu’il faut rester lucide : quand la bataille semble perdue, peut-être vaut-il mieux négocier une retraite honorable en trouvant un acquéreur plutôt que de s’obstiner à boucler une énième levée de fonds. Mais tout cela est facile à dire a posteriori.

Quote D

 

Quelles leçons peut-on tirer de cette expérience ? Le modèle d’affaires des plateformes P2P est-il tenable à long terme, même pour les entreprises aux poches les plus profondes ? C’est le sujet que j’aborde dans le troisième article de cette série.


Photo credit: Usonian via Visual Hunt / CC BY-NC-SA

Take Eat Easy (3). L’uberisation a-t-elle du plomb dans l’aile?

0
0

Dans cette série d’articles, je cherche à comprendre ce qui a fait passer la plateforme Take Eat Easy du Capitole à la roche Tarpéienne. Après avoir présenté un cadre d’analyse économique des plateformes de l’économie du partage (ou plateformes P2P) et donné la parole à son fondateur, Adrien Roose, je m’interroge ici sur la soutenabilité du modèle d’affaires de ces plateformes. L’uberisation aurait-elle du plomb dans l’aile?


Il est indéniable que le choix de s’organiser en plateforme a permis à une série d’entreprises de conquérir des parts de marché significatives ; les succès actuels d’Uber, Airbnb et autres l’attestent. On est toutefois en droit de se demander dans quelle mesure ces succès sont soutenables à plus long terme. Trois menaces pèsent en effet sur les plateformes P2P :

  1. la réaction des firmes conventionnelles,;
  2. la concurrence d’autres plateformes P2P;
  3. le piège de la fuite en avant.

Réaction des firmes conventionnelles

Voyant leurs parts de marché se réduire, les firmes conventionnelles ont déployé de nouvelles stratégies pour contrer l’entrée de plateformes P2P ou, à tout le moins, pour en minimiser l’impact négatif. Matzler et al. (2015) répertorient les principales stratégies mises en œuvre. [1]

  • Vendre l’usage du produit plutôt que le produit lui-même (comme Daimler l’a fait avec son service de partage de voitures car2go);
  • Aider les clients à revendre leurs biens (à l’image de la plateforme de revente de meubles proposée par Ikea);
  • Exploiter les ressources et capacités inutilisées (par exemple, le partage de bureaux en collaborant avec une plateforme comme LiquidSpace);
  • Offrir un service de réparation et de maintenance (comme Best Buy l’a fait en rachetant Geek Squad, spécialisé dans la réparation d’ordinateurs);
  • Utiliser l’économie P2P pour cibler de nouveaux clients (à l’instar de Pepsi qui s’est allié avec la plateforme Task Rabbit pour lancer un nouveau soft drink);
  • Développer un nouveau modèle d’affaires via l’économie P2P (comme la plateforme Kuhleasing.ch créée par des fermiers suisses pour louer des vaches et des séjours à l’alpage, ou comme GM le fait via son acquisition de Sidecar).

Les firmes conventionnelles bénéficient aussi (à juste titre, diront-elles) des réactions des régulateurs qui, peu à peu, adaptent les cadres légaux avec l’objectif de mettre firmes conventionnelles et nouveaux entrants sur un pied d’égalité.

Defense

Concurrence entre plateformes P2P

Souvent, ce n’est pas une mais plusieurs plateformes P2P qui tentent de s’installer sur un même marché. On l’a vu avec l’entrée quasi simultanée de Take Eat Easy et Deliveroo sur le marché de la livraison de plats préparés.

La concurrence à laquelle les plateformes P2P se livrent est singulière en ce sens qu’elle porte simultanément sur plusieurs ‘versants’ : les plateformes concurrentes doivent en effet se battre pour attirer à la fois des producteurs et des consommateurs, tout en sachant que les uns ne viennent pas sans les autres et inversement. Les effets externes positifs qui existent entre les versants exacerbent donc la concurrence : en attirant un producteur supplémentaire, non seulement la plateforme attire davantage de consommateurs mais souvent, elle réduit aussi la capacité de sa rivale à faire de même (dans la mesure où le producteur attiré par l’une ne peut plus être attiré par l’autre).

Notons toutefois que ce dernier effet est moins prononcé quand les plateformes ne sont pas exclusives, c’est-à-dire quand consommateurs et/ou producteurs peuvent utiliser simultanément plusieurs plateformes. Vermeulen (2017) donne l’exemple des conducteurs de taxi à Singapour qui ont deux smartphones fixés à leur tableau de bord ; si une demande de course arrive d’une plateforme, le conducteur va l’accepter et refuser les demandes éventuelles provenant de l’autre plateforme. Il en va de même pour beaucoup de clients qui ont au moins deux applications sur leur smartphone ; quand ils ont besoin d’une course, ils vérifient les deux applications et choisissent celle qui renseigne le meilleur rapport qualité/prix. [2]

Victory

Comme chaque participant a énormément de valeur aux yeux des plateformes concurrentes, on comprend que dans un tel contexte, la concurrence risque de faire place rapidement à une position dominante : dès qu’une plateforme gagne du terrain par rapport à ses concurrentes, son avance a toutes les chances de croitre naturellement en raison des effets de réseau positifs (une plateforme qui a plus de consommateurs, attire plus de producteurs, ce qui attire encore plus de consommateurs et ainsi de suite). Il est donc fort probable que le gagnant emporte tout (‘winner-takes-all’ en anglais), ne laissant que des miettes aux perdants (des services de niche ou des zones géographiques limitées). Comme Shapiro et Varian l’expliquaient déjà en 1999, cette concurrence ‘pour le marché’ (plutôt que ‘dans le marché’) peut s’avérer très rémunératrice pour le gagnant, mais elle est aussi très risquée (car il est très difficile de prévoir a priori qui sortira gagnant). [3]

Le piège de la fuite en avant

Qu’une plateforme P2P se batte contre une firme conventionnelle ou contre une autre plateforme P2P, sa principale stratégie à court terme consiste à … grandir. Il faut atteindre ce qu’il est convenu d’appeler une ‘masse critique’ d’utilisateurs, c’est-à-dire cette taille à partir de laquelle la croissance se nourrit d’elle-même grâce aux effets de réseau. Mais, comme le notent Hagiu et Rothman (2016), il est dangereux de vouloir grandir trop vite et à tout prix. [4] En se braquant sur le nombre de participants qu’elle attire, la plateforme risque de négliger la qualité du service d’intermédiation qu’elle offre ; elle se met alors à la merci d’une plateforme entrante qui aura appris des erreurs de son aînée et sera ainsi mieux à même de proposer des transactions mutuellement bénéficiaires aux participants. C’est par exemple le cas d’Uber qui a supplanté Lyft, en copiant et améliorant le modèle de taxis P2P élaboré par cette dernière.

Triathlon

La stratégie de croissance rapide est également très couteuse à court terme. C’est en fait un pari sur l’avenir : la plateforme s’endette aujourd’hui pour attirer des participants, en espérant pouvoir rentabiliser cet investissement demain, une fois qu’elle aura atteint une position dominante. Pour que ce pari soit gagnant, il faut convaincre les bailleurs de fonds qu’il s’agit là d’une prophétie auto-réalisatrice. Le discours tenu par les start-ups peut se résumer à ceci : “C’est précisément parce que vous me financez moi plutôt que mes rivaux que je vais dominer le marché et, ainsi, rentabiliser votre investissement”.  Le défi, pour les bailleurs de fonds, est alors de miser sur le bon cheval. En outre, ils doivent espérer que leur cheval ne remportera pas, au final, une victoire à la Pyrrhus. Le cas d’Uber est exemplatif à cet égard. Comme l’écrit Arnulf (2016),

Le chiffre d’affaires d’Uber grossit au même rythme que ses pertes. Les revenus ont augmenté de 18% entre le premier et le deuxième trimestre [2016]. Mais dans le même temps, Uber continue d’augmenter le nombre de chauffeurs avec qui il travaille, investit beaucoup dans la technologie, notamment liée à la conduite autonome, et baisse ses tarifs pour toucher le grand public. Seule sa capacité à lever des sommes astronomiques (16 milliards de dollars en cash et en dette depuis ses débuts) lui permet de rester à flot, en attendant une stabilisation. [5]

Vers une ‘uberisation 2.0’?

Duperrin (2017) résume très bien la situation actuelle des plateformes de l’économie du partage :

On a vu ces temps derniers un certain nombre de jeunes start-up ne pas réussir à transformer l’essai après des débuts plus ou moins prometteurs, aussi bien en Europe qu’aux Etats-Unis d’ailleurs. De Homejoy à Take Eat Easy en passant par Spoon Rocket, Washio, … le cimetière est en train de se peupler relativement vite. (…) Dans le monde des startups, on n’est pas surpris qu’il y ait beaucoup d’appelés pour peu d’élus; dans le monde de l’ubérisation en particulier, il y aura encore moins d’élus qu’ailleurs. (…) Pour autant les survivants ont-ils gagné la partie? [6]

Je partage tout à fait le scepticisme qui transparait dans cette dernière phrase. Comme indiqué plus haut, la plus encensée des plateformes P2P, Uber, ne cesse de creuser son trou. Mais elle devra, tôt ou tard, rendre des comptes à ses investisseurs. D’où cette question lancinante : comment atteindre le seuil de rentabilité ? Evincer les concurrents du marché ne suffit pas (même si c’est indéniablement un avantage); il faut aussi empêcher l’entrée de nouveaux concurrents et/ou le retour en force des entreprises conventionnelles qui parviennent à appliquer les nouvelles recettes dans leurs vieilles casseroles.

River bank ahead

Or, pour augmenter leurs marges, les plateformes P2P n’ont pas 36 solutions: elles peuvent réduire leurs coûts et/ou augmenter leurs prix. Mais ces deux stratégies n’ont guère de chances de fonctionner. Du côté des coûts, les possibilités semblent limitées : il ne reste plus grand chose a améliorer du côté de la logistique et les prestataires de services ne peuvent décemment plus être pressurés davantage (au contraire, ils s’organisent pour obtenir de meilleures conditions). Du côté des prix, l’horizon ne semble pas beaucoup plus dégagé. Les consommateurs des places de marché P2P se révèlent comme très sensibles aux prix. Par exemple, Owyang et Samuel (2015) ont sondé plus de 50 000 participants américains et canadiens à des places de marché P2P: 68% des sondés donnent les prix comme une des raisons principales qui les poussent à utiliser ces plateformes. [7] Il y a donc fort à parier qu’une augmentation des prix générerait la désaffection de bon nombre de consommateurs, qui entraîneraient dans leur sillage de nombreux prestataires de service vu les effets externes qui sont à l’oeuvre sur ces plateformes. Un cercle vicieux s’engagerait donc, qui mettrait encore plus en danger la rentabilité des plateformes.

Bien malin qui peut prédire l’avenir mais il apparait que le modèle de plateforme ‘pur et dur’ est difficilement tenable à terme. S’oriente-t-on dès lors vers des modèles hybrides où des firmes combineraient l’intégration verticale pour certaines opérations et des fonctions d’intermédiation pour d’autres?  Des tentatives de ce genre s’observent déjà, à l’initiative soit de plateformes entrantes soit de firmes conventionnelles. Ainsi, dans l’article précédent de cette série, Adrien Roose (CEO de Take Eat Easy) explique comment Deliveroo revient vers une organisation plus intégrée en investissant dans des cuisines industrielles. Dans l’autre sens, AccorHotels a amorcé une transition digitale en 2015 en transformant sa plateforme de distribution AccorHotels.com en une place de marché ouverte à une sélection d’hôtels indépendants.

Se dirigerait-on donc vers une forme de convergence entre entreprises conventionnelles et plateformes P2P? Et tout cela, on peut l’espérer, au grand bénéfice des consommateurs? A suivre…


Notes

[1] MATZLER, K., VEIDER, V., et KATHAN, W., (2015), “Adapting to the sharing economy”, MIT Sloan Management Review, 56 (2).

[2] VERMEULEN, F., (2017), “What So Many Strategists Get Wrong About Digital Disruption”, Harvard Business Review (3 Janvier 2017).

[3] SHAPIRO, C., et VARIAN, H., (1999), Information Rules: A Strategic Guide to the Network Economy. Boston: Harvard Business School Press.

[4] HAGIU, A., et ROTHMAN, S., (2016), “Network Effects Aren’t Enough”, Harvard Business Review 94 (4), 65–71.

[5] DUPERRIN, B. (2017), “Ubérisation: la fin de la fête?”, FrenchWeb.fr, 12 janvier 2017.

[6] ARNULF, S., (2016), “1,2 milliard de dollars de pertes pour Uber au premier semestre 2016, et alors !”, L’Usine Digitale, 26 août 2016.

[7] OWYANG, J., et SAMUEL, A., (2015), “The New Rules of the Collaborative Economy”, VisionCritical.


Photo credit: Photo via VisualHunt.com // Rooners Toy Photography via VisualHunt / CC BY-NC-ND // Photo via Visual hunt // Photo via VisualHunt

Zero-rating: a blessing for consumers or a net neutrality nightmare?

0
0

Robert Somogyi

The author of this article is Robert SOMOGYI. Robert is a postdoctoral fellow at CORE (Université catholique de Louvain). In his Ph.D. thesis, prepared at Ecole Polytechnique and CREST, he analyzed the price setting behavior of firms that face capacity constraints under various market settings. Recently, he has been working on issues related to the digital economy in general and net neutrality in particular. For more information and contact info, visit Robert’s homepage.


Zero-rating (also called “sponsored data” or “free data services”) is a commercial agreement between a mobile internet service provider (ISP) and a content provider (CP) excluding the CP’s data from users’ monthly data cap. A typical example is T-Mobile US’s Binge On program, under which T-Mobile’s users can watch an unlimited amount of Youtube and other videos through the 4G network as doing so does not count against their data caps.

Net neutrality is under attack

This practice constitutes a violation of the net neutrality principle as not all data packages are treated equally, some count against users’ data cap and some do not. Although on the one hand zero-rating programs benefit consumers by offering additional free data, on the other hand current examples show they carry real risks as well. A report released by Tom Wheeler in January 2017, shortly before stepping down as chairman of the FCC, the US telecom regulator, argued that two specific zero-rating offerings “may harm consumers and competition by unreasonably discriminating in favor of downstream providers owned or affiliated with the network providers.”

Moreover, zero-rating has become a widespread practice: a study in 2014 covering 180 mobile carriers serving 2.4 billion customers worldwide found that 49% of mobile carriers engage in some form of it (Allot Communications, 2014). Accordingly, net neutrality in general and zero-rating in particular are of considerable interest to both regulatory agencies and the general public. For instance BEREC, the EU’s regulatory body of telecommunication, received a record number of 481.547 responses to the public consultation of new net neutrality rules in the summer of 2016 (BEREC, 2016). Similarly, the FCC received 3.7 million responses to its public consultation in 2015. Furthermore, zero-rating is cited as one of the driving forces of the proposed AT&T – Time Warner merger, thus its evaluation will be crucial for competition authorities as well.

Different types of zero-rating

To avoid confusion, it is worth noticing that zero-rating is often used in a broader sense than the definition above, describing any commercial agreement or unilateral decision of an ISP to exclude some content from usage-based pricing. The report by Stellman and Adams (2015) for  the Center for Democracy & Technology provides a good typology of zero-rating arrangements.

Tesla

  1. The first type of such arrangements is included in a data plan, and consists of content being exempted from users’ data cap, the main topic of this blog post.
  2. For the second type of zero-rating programs, no purchase is necessary, thus they are most common in the developing world where many users have a smartphone but cannot afford a data plan. A typical example is the Wikipedia Zero offer, a mobile carrier making Wikipedia pages available to all its customers.
  3. A third type of zero-rating program is the case of free content bundled with other products. For example, Tesla drivers can enjoy unlimited music streaming on Spotify or users of Kindle can download e-books using the so-called Amazon Whispernet.
  4. A fourth type of zero-rating is also called “earned data” because users can increase their data cap by watching advertising or downloading new apps.

As the economic stakes depend crucially on the type of the zero-rating program in question, in the remainder of this post I will exclusively focus on the first type of zero-rating arrangements.

Current examples of zero-rating programs

I will illustrate the different forms of zero-rating agreements (of the first type, involving data caps) by describing some typical examples from the US. For a recent review of zero-rating programs around the world, see Yoo (2016).

The most prominent example of what I call an open zero-rating program is T-Mobile US’s Binge On offer. Any video streaming service fulfilling T-Mobile’s technical requirements can join the Binge On program and consequently get zero-rated. Surprisingly, admission to Binge On is free for all CPs. Notice that I will use the terminology “open program” to highlight that any CP can join it; I do not require the admission to be free. Thanks to the permissive policy, more than 100 video providers are already part of the program, including the largest ones (Netflix, Youtube, Amazon Video) and even their competitors’ services (go90, DirecTV).

180341

I distinguish open programs from exclusionary zero-rating programs. US mobile carriers AT&T and Verizon provide good examples of such offers. AT&T zero-rates its own DirecTV app under its Sponsored Data program, and Verizon zero-rates its subsidiary, a video provider called go90. Although both AT&T and Verizon claim that any video provider could join the program in exchange of payment, these fees are not public and likely to be prohibitively high. Indeed, the Obama-era FCC’s investigation in January 2017 found that

“AT&T’s charges far exceed the costs AT&T incurs in providing the sponsored data service. Thus, it would appear that AT&T’s practices inflict significant unreasonable disadvantages on edge providers and unreasonably interfere with their ability to compete against AT&T’s affiliate”

What is the current state of regulation?

Given the complexity of the trade-offs involved, and arguably in part due to the lack of sound economic analysis, the regulation mandates a case-by-case treatment of zero-rating programs both in the US and in the EU.

In the EU, BEREC explicitly discusses the practice of zero-rating under Article 3(2) of its Guidelines on the Implementation by National Regulators of European Net Neutrality Rules, issued in August 2016 (BEREC, 2016). Acknowledging that there “are different types of zero-rating practices which could have different effects on end-users”, BEREC mandates a case-by-case investigation of different zero-rating offerings. However, the regulation explicitly bans zero-rating offers where all content is blocked or slowed down once the data cap is reached except for the zero-rated content. Moreover, it states that offers that zero-rate entire classes of applications are less likely to be harmful than offers that zero-rate specific CPs. The implementation of this regulation is likely to result in some legal battles, in particular in the Netherlands that has a stricter net neutrality regulation. Indeed, T-Mobile Netherlands is refusing to pay the 50.000 € a day fine imposed by the Dutch regulator ACM due to its zero-rating program and will instead appeal to the courts.

4737987104_60846269d6_z

Zero-rating regulation in the US is also in a constant state of flux. The FCC’s Open Internet Order, issued in 2015, mandated a case-by-case treatment of zero-rating arrangements, similarly to European regulation. The FCC has conducted an informal review of the existing programs for more than a year. Finally, in December 2016 it started a formal investigation sending several letters demanding explanations of the zero-rating practices of all major US mobile carriers. In January 2017, during the last days of the Obama-era FCC, the chairman issued a report condemning AT&T’s and Verizon’s exclusionary practices while judging T-Mobile’s open program harmless. However, this action was mostly symbolic as the incoming Trump administration was largely suspected to overturn this ruling. Indeed, one of the first actions of the new Republican chairman, Ajit Pai, was to stop the inquiry about zero-rating and state that

“[a]ny conclusions, preliminary or otherwise, expressed during the course of the inquiry will have no legal or other meaning or effect going forward.”

What do scholars have to say?

To date, the study of zero-rating has mostly been relegated to the realms of Law and Information Technology. For two recent summaries providing an overview of zero-rating programs and the current state of regulation, see Marsden (2016) and Yoo (2016).

The FCC’s and BEREC’s public consultations gave rise to numerous position papers discussing either the merits or the drawbacks of zero-rating programs, for instance Eisenach (2015), the ITIF report by Blake (2016) and the WWW Foundation’s report by Drossos (2015). For a rather impartial overview of the main arguments, see CDT’s report by Stellman and Adams (2015). Arguably, van Schewick (2015) presents the most comprehensive set of arguments against zero-rating, while the most comprehensive (informal) economic presentation of its merits is by Rogerson (2016).

17163831686_e73c1f62a5_c

Apart from my on-going work presented in the next section, a working paper from Jullien and Sand-Zantman (2016) has been the only attempt to model zero-rating in a formal economic setting. In this model, zero-rating is a tool for CPs to overcome the problem of the missing price on the market. Specifically, it views zero-rating as the modern equivalent of a toll-free number, an efficient way to give a discount to users who otherwise do not directly pay CPs. It shows that such a departure from net neutrality can be welfare improving. This model differs from my research paper in several key aspects. Firstly, I aim to model congestion more directly, by explicitly modeling the ISP’s capacity constraint and users’ data caps. Moreover, my model will also be suitable to explain the emergence and co-existence of different types of zero-rating programs, which seems to be a crucial factor in real-world examples.

A model of zero-rating

In Somogyi (2017), I model the mobile internet market as a two-sided market, with a monopolistic ISP connecting end users to CPs. There are three CPs: two video providers (VPs) that are potentially zero-rated and a provider representing all other content that is never zero-rated. Users view the two VPs as perfect substitutes, whereas they have Cobb-Douglas preferences between video and other content. CPs’ revenue comes from advertising, proportional to traffic on their website. This simplification is necessary to avoid dealing with a “three-sided” platform. The two VPs may differ in the revenue they produce per click. I will refer to the firm with lower ability to generate revenue as the weaker firm.

4293978363_94750cdf22_m

There is a finite number of identical end users who benefit from consumption, but face two constraints. Firstly, their consumption is limited by their data cap. Zero-rated content, by definition does not count against this data cap. Secondly, users become satiated by mobile internet consumption: there is an upper bound for total consumption per user, independently of zero-rating. I will refer to this cap as their ‘bliss point’.

The ISP is characterized by a fixed capacity constraint, if aggregate demand for all content from all consumers exceeds this capacity, then some consumers will get rationed. The ISP collects fixed subscription fees from all users served. Conversely, the ISP can only ask for compensation from a CP with which it entered into a zero-rating agreement. The ISP has three options: not to offer any zero-rating plans, offer an exclusive contract to one of the CPs, or offer an open zero-rating program where both CPs can join. The timing of the game is the following: the ISP chooses one of its three options; then CPs choose whether to accept the eventual offer simultaneously and independently; finally, end users make their consumption decisions simultaneously and independently.

The first result is that (excluding cases where the attractiveness of video is extremely low) when facing zero-rated content, users consume up to their bliss point. This means that despite being rational, users do not take into account the negative externality that their large consumption exerts on their peers, which results in congestion. The main trade-off the ISP faces is therefore the following: serve more end users and thus obtain a larger revenue from the consumer side by abstaining from zero-rating, or serve fewer consumers but extract part of the CPs’ profit by zero-rating. Therefore, zero-rating is more likely to be an optimal strategy of the ISP whenever revenue per click is large and whenever the subscription fee is small.

The second result is that open zero-rating programs, exclusionary zero-rating contracts, and not offering zero-rating can all be optimal strategies for the ISP. I identify the parameter regions leading to each outcome. For symmetric VPs, the more attractive video content is, the more likely it will get zero-rated. This result holds for asymmetric VPs when video is relatively attractive. However, for asymmetric VPs, the opposite may also happen: it is possible that the less attractive video content is, the more likely it gets zero-rated. The intuition for this result is the following: the ISP offers an exclusive zero-rating contract to the stronger firm. The less attractive video content is, the more the VP’s revenue jumps by the increased consumption if it is zero-rated, so the larger is the profit that the ISP can extract from the VP. Consequently, the ISP may zero rate content when it is either very unattractive or very attractive for consumers, but not in the intermediary region.

Furthermore, I identify a threshold level of attractiveness above which zero-rating improves consumer surplus and social welfare, and below which it may harm both consumers and social welfare. Intuitively, in the latter case the increased overall consumption of unattractive content creates congestion, a negative externality, leading to a classical tragedy of the commons situation. However, the welfare effects are ambiguous for unattractive content for the following reason: the harm coming from the congestion externality can be counterbalanced by the increased consumption of the product of more efficient content providers. I identify simple necessary and sufficient conditions under which zero-rating programs are welfare decreasing.

Conclusion

Zero-rating is a complex issue deserving in-depth analysis. My model fills a gap in the literature by highlighting the key role congestion plays on the mobile internet market. It shows that attractiveness of zero-rated content is crucial in understanding mobile carriers’ incentives to offer zero-rating programs. These incentives can be misaligned with the social optimum, in particular, profitable zero-rating offers can harm consumers if content is unattractive. On the other hand, zero-rating always improves social welfare when content is attractive. These results suggest that the case-by-case approach currently used by regulators in the US and the EU is not entirely unwarranted.


References

Allot Communications. (2014). App-centric operators on the rise.

Brake, D. (2016). Mobile Zero Rating: The Economics and Innovation Behind Free Data. Information Technology and Innovation Foundation, May 2016.

BEREC (2016). Report on the outcome of the public consultation on draft BEREC Guidelines on the Implementation by National Regulators of European Net Neutrality rules, BoR, 16(128).

Drossos, A. (2015). The real threat to the open Internet is zero-rated content. World Wide Web Foundation.

Eisenach, J. A. (2015). The economics of zero rating. Mimeo.

FCC (2015). Eighteenth Annual Report and Analysis of Competitive Market Conditions
With Respect to Mobile Wireless, Including Commercial Mobile Services. WT Docket,
(15-125).

Jullien, B., & Sand-Zantman, W. (2017). Internet Regulation, Two-Sided Pricing, and Sponsored Data (No. 735). Institut d’Économie Industrielle (IDEI), Toulouse.

Marsden, C. T. (2016). Zero Rating and Mobile Net Neutrality. In Net Neutrality Compendium (pp. 241-260). Springer International Publishing.

Rogerson, W. (2016). The economics of data caps and free data services in mobile broadband. CTIA report.

Somogyi, R. (2017). The Economics of Zero-Rating and Net Neutrality. CORE Discussion Papers 2016/47, Université catholique de Louvain.

Stallman, E., & Adams, R. S. (2016). Zero Rating: a framework for assessing benefits and harms. Center for Democracy and Technology.

van Schewick, B. (2016). T-Mobile’s Binge On violates key net neutrality principles.

Yoo, C. S. Avoiding the Pitfalls of Net Uniformity: Zero Rating and Nondiscrimination. Review of Industrial Organization, 1-28.


Photo credit: Free Press Pics via Visual Hunt / CC BY-NC-SA // Thomas Hawk via Visualhunt / CC BY-NC // iclarified.com // Flying Cloud via Visual Hunt / CC BY // Frits Ahlefeldt FritsAhlefeldt.com via Visual Hunt / CC BY-NC-ND// antiuser via Visual hunt / CC BY-NC-SA

La réputation en ligne, un nouvel actif immatériel dans l’économie collaborative

0
0

http://monipag.com/gaston-samele/wp-content/uploads/sites/3264/2016/06/Sharing-economy.jpg

En 2011, la Commission européenne proposait un plan d’action pour renforcer la confiance dans l’économie numérique[1]. En présentant en 2015 une stratégie pour le marché unique numérique, la Commission visait à concrétiser davantage ce plan action[2]. Cela donne à penser que la confiance dans l’économie numérique peut se construire. Des mesures législatives assurant les droits des e-consommateurs peuvent inciter les individus à déployer davantage leurs activités en ligne. Au-delà des institutions qui rassurent, la confiance se gagne sur le terrain, à travers le succès de relations directement nouées en ligne.

La confiance numérique, c’est-à-dire – tentons un début de définition ! – , la possibilité de se fier à des propositions et à des informations circulant en ligne, peut se décliner de multiples façons. Elle peut valoir à l’égard d’un opérateur en ligne qui est une entreprise. Dans le chef de l’entreprise, elle constitue alors une nouvelle forme de bien incorporel constituant une plus-value économique ou un actif immatériel. Parfois, cette entreprise est exercée par une personne privée qui offre ses biens ou services, par exemple dans le cadre de ce que l’on appelle l’économie collaborative. L’actif immatériel de l’entreprise peut reposer sur certains droits intellectuels (par exemple une marque). Dans d’autres cas, la renommée et/ou les compétences du fournisseur de biens ou services permettront d’acquérir une image de marque[3].

Dans l’économie numérique, et en particulier l’économie collaborative, les fournisseurs et prestataires de services qui ne sont pas des professionnels ne peuvent s’appuyer sur une marque ou une image construite par la publicité. Afin de faciliter les échanges entre les consommateurs et les prestataires non-professionnels, les plateformes numériques qui jouent le rôle d’intermédiaires tentent de susciter la confiance par d’autres moyens. C’est ainsi que se sont développés des systèmes de notations et de commentaires (‘ratings and reviews’) permettant un contrôle par la réputation, élément essentiel de la confiance. Que l’on songe par exemple aux évaluations d’hébergements sur booking.com ou sur Airbnb. Parfois, les évaluations sont réciproques, et les consommateurs sont eux aussi notés par les fournisseurs de service.

Ces mécanismes de contrôle de la réputation en ligne (ou e-réputation) ne sont pas entièrement fiables. Ainsi, l’autorité anglaise de régulation de la publicité a estimé que TripAdvisor ne pouvait promouvoir son site web avec le slogan «Des commentaires auxquels vous pouvez faire confiance» (‘Reviews you can trust’), car il serait trompeur[4]. Une cour d’appel de Californie a rendu une décision similaire à l’encontre de Yelp[5]. En Belgique aussi, les commentaires de la part de clients ont donné lieu à des litiges parfois répercutés dans la presse[6].

Les autorités publiques s’intéressent aussi à la fiabilité des systèmes de réputation. En matière d’applications mobiles de santé, le Sénat belge a adopté le 12 mai 2017 un rapport qui comprend une partie dédiée à la construction de la confiance[7].

A travers ces exemples, on voit que la construction de la confiance en ligne fait l’objet de mesures pratiques et de contentieux judiciaires, tout en suscitant un débat plus large, relayé par la presse.

La construction de la confiance en ligne dans le cadre de l’économie collaborative a fait l’objet, le 16 décembre 2016, d’un séminaire à l’UCL organisé par le CRIDES. Vous pouvez suivre ce séminaire en ligne, les présentations et discussions ont été filmées: https://uclouvain.be/fr/instituts-recherche/juri/crides/actualites/conference-building-online-trust.html

Pour faire avancer le débat sur l’essor de ce nouvel actif immatériel qu’est la e-réputation, merci de réfléchir aux questions suivantes (ce sont des questions relativement ouvertes, il n’y a pas une seule bonne réponse):

  1. Pouvez-vous proposer une définition de la e-réputation dans l’économie collaborative ?
  2. A la lumière de ce qu’est un droit de propriété intellectuelle (à vous de sélectionner une définition), veuillez expliquer pourquoi le droit sur la e-réputation est (ou n’est pas) un droit intellectuel ?
  3. Pouvez-vous donner un exemple précis d’un outil garantissant un certain niveau de confiance, éventuellement en vous basant sur votre propre expérience des plateformes de l’économie collaborative?
  4. Les systèmes de notation et recommandation constituent un des moyens les plus fréquents pour créer la confiance sur les marchés (numériques et financiers). Ces mécanismes ont des points positifs et négatifs. Identifiez et exemplifiez au moins deux avantages et deux inconvénients.
  5. Comment les normes techniques (les standards) peuvent-ils jouer pour renforcer la confiance en ligne? Indiquez une limite à la régulation par les normes techniques.
  6. Que peut faire le droit pour limiter les inconvénients des systèmes de notation et recommandation? Plus généralement, la régulation par la réputation retire-t-elle toute place au droit ? Comment le droit peut-il renforcer la confiance ? Y a-t-il des différences entre le mode d’intervention du droit hors ligne et en ligne ?

Alain Strowel et Enguerrand Marique

[1] Communication de la Commission, Un cadre cohérent pour renforcer la confiance dans le marché unique numérique du commerce électronique et des services en ligne, COM(2011) 942 final.

[2] Communication de la Commission, Stratégie pour un marché unique numérique en Europe, COM(2015) 192 final.

[3] Voy. par ex. C. Pourbaix, Valeur de l’entreprise. Critères et mesures, Paris, Dunod, 1969, p. 124.

[4] https://www.asa.org.uk/rulings/tripadvisor-llc-a11-166867.html .

[5] Demetriades v. Yelp 2014 WL 3661491 (Cal. App. Ct. July 24, 2014). Disponible sur https://cases.justia.com/california/court-of-appeal/2014-b247151.pdf?ts=1406232055

[6] Voy. ‘L’Echo’ du 10 avril 2017, http://www.lecho.be/economie-politique/belgique-general/Emettre-une-critique-negative-sur-TripAdvisor-Attention/9881383 .

[7] Rapport d’information concernant la nécessaire collaboration entre l’autorité fédérale et les Communautés en ce qui concerne les nouvelles applications en matière de soins de santé et notamment de santé mobile, Doc. Parl., Sénat, n°6-261/4 (en particuler recommandation n°52) et n° 6-261/5.

 

Crowdfunding and co-opetition

0
0

On May 22, the Laboratory of Excellence for Financial Regulation (LabEx-ReFi) organized a one-day workshop on Online Alternative Finance: Building a Bridge between Research and Practitioners. The objective of the workshop was “to bring together scholars, industry leaders and regulators to have an open-minded discussion about our current state of knowledge about alternative finance.”

I took part in the first panel discussion on ‘Financing of start-ups by equity/reward crowdfunding‘. My task was to answer three questions about the economics of crowdfunding platforms. I reproduce my answers here; they are based on my previous research (see here and here for presentations on IPdigIT) and on some work in progress.

Can you describe the interactions between participants (funders and fundraiser) that take place on a (reward-based) crowdfunding platform? Justify the neologism co-opetition you use for qualifying these interactions.

The concept of ‘co-opetition’ has been proposed by Brandenburger and Nalebuff in their book in 1996; it is not exactly a neologism but it’s true that this concept is seldom used, although it describes very common situations. The idea is the following: rival firms (i.e., firms operating on the same market) are not always competing with one another; there are also dimensions along which they have a common interest in cooperating. To put it roughly, firms cooperate to make the pie grow and then they compete to divide up the pie among them. Hence the term ‘co-opetition’, which mixes cooperation and competition.

coopetition

On a crowdfunding platform, fundraisers compete with one another to attract the attention and the funds of the funders. In the economic jargon, we say that there are negative external effects within the group of funders. This means that for a given number of funders, any fundraiser who has already her project presented on the platform is not too happy when the platform accepts an additional project, because this potentially reduces her chances to be financed. Another consequence of this competition among fundraisers is that, other things being equal, fundraisers prefer small crowdfunding platforms, i.e., platforms that showcase a small number of projects.

But, this ‘other things being equal’ way of thinking is obviously wrong. In particular, it is wrong to think that the number of funders is given. This is where the cooperation part kicks in: as more fundraisers join a particular platform, this platform becomes more attractive for funders because they have more chances to find on this platform the project (or the reward) that fits their taste. In our jargon, we talk of positive external effects across groups: more fundraisers attract more funders. And, clearly, the reverse is true as well: more funders attract more fundraisers.

Now, what is the net effect? As a fundraiser, do I welcome an extra fundraiser on my platform? The answer is yes, if this extra fundraiser makes the pie grow more than it steals a part of this pie from me. Our recent research (with Armin Schwienbacher and Thomas Lambert) suggests that such positive net effects are at work on Ulule, the French reward-based crowdfunding platform: past contributions to some project A have a positive influence on current contributions to some other project B. A direct consequence of this is that fundraisers, under these conditions, prefer larger platforms to smaller platforms. I’ll come back to this.

What are the best strategies of crowdfunding platforms to internalize interactions between participants and to make money?

It is important to include the platforms into the picture. Even though fundraisers may benefit from one another’s presence, as I just described it, they are not directly cooperating. It is the platform that makes these positive external effects across groups arise. Without the platform, fundraisers and funders wouldn’t be able to interact (the transaction costs would simply be too high). This is what we mean when we say that platform internalize the external effects generated by the interaction between fundraisers and funders.

Chicken-and-egg

Now, how do they do so and how do they make money? There are two big categories of strategies: price and non-price strategies. As far as prices are concerned, most platforms make fundraisers pay (by taxing a part of the funds that they raise) and give free access to funders. This is a general tactic for this type of platforms (called ‘two-sided’ platforms): as they need to attract one group to attract the other, and vice versa, they face what is known as a ‘chicken-and-egg’ problem. Providing free (or even subsidized) access to one group so as to convince this group to join is usually the only way to solve this problem. Think of free entrance (plus a free drink) given to women in nightclubs. To make money, the platform needs to raise sufficient revenues on the ‘money’ side to cover its losses on the ‘subsidy’ side, which usually requires patience (and deep pockets…).

Non-price strategies are as important. Once the two groups are on board, crowdfunding platforms must do whatever they can to facilitate the interaction between the groups. A first strategy concerns the choice of a mechanism for raising funds. Platforms usually adopt one of two models: ‘All or Nothing’ (the fundraiser gets the money only if the goal that was set initially is reached) or ‘Keep It All’ (when money can be kept even if the goal is not reached). These two mechanisms have their advantages and disadvantages, which I don’t have time to discuss here. Platforms also design strategies to address asymmetric information problems. There are hidden information problems (funders have a hard time estimating the chances of success of the proposed projects) and hidden action problems (funders also face trouble monitoring what fundraisers do with the collected funds). Typically, platforms spend resources to screen the projects that they accept; they also facilitate the provision of information by the fundraisers and the circulation of information among funders.

How with the crowdfunding platforms industry evolve? More concentration, less fragmentation? Which complementarities for reward-based and equity-based CRP?

As I explained it before, there are strong reinforcement mechanisms at work on crowdfunding platforms: more funders attract more fundraisers, who in turn attract more funders, and so on so forth. Even if the competition among funders exerts a force in the opposite direction, I believe that this is of second order, at least nowadays as crowdfunding as a whole is still growing (things may change when the crowdfunding market will reach its maturity). Add to this, economies of scale and a learning curve; that is, platforms get better at what they do as they grow.

snowball

Put together, these forces induce a snowball effect: the big gets bigger and the small smaller, which should push the crowdfunding platform industry towards more concentration and less fragmentation. This being said, I don’t believe that the crowdfunding market will be dominated by one or two global platforms (like Google for search, or Facebook for social networks). There is (and there will still be in the near future) a lot of room for differentiation across platforms. Differentiation indeed takes place along the following dimensions:

  • the type of crowdfunding (reward, equity, donation, lending, …),
  • geographical lines (because of different regulations, because funders prefer financing local entrepreneurs, …),
  • sectors (artistic projects, real estate, you name it).

As far as complementarities are concerned, I don’t think there is much to be found among different types of crowdfunding platforms. My understanding is that reward-based and equity-based crowdfunding are two worlds apart (these platforms don’t attract the same profile of fundraisers, let alone the same profile of funders). However, complementarities exist – and are increasingly exploited – among crowdfunding platforms and other forms of financing. I mean banks primarily, but also venture capitalists or business angels.


Photo credits: VisualHunt // Nukamari via Visualhunt / CC BY-NC-ND // withrow via Visual Hunt / CC BY-NC


Innovation et digitalisation

0
0

En préambule du 22ème Congrès des Economistes, qui se tiendra à Bruxelles le 30 novembre prochain, je vous livre ici le résumé des contributions qui seront présentées dans le cadre de la Commission ‘Innovation et Digitalisation‘. Après une brève présentation du congrès, je décrirai le contexte général dans lequel s’inscrivent les travaux de la commission. Je résumerai ensuite, tour à tour, les éclairages apportés par les économistes et par les juristes qui participeront à la commission.

LinkedIn_Congrès
Les enjeux de l’innovation : Quelles politiques ? Quelles gouvernances ?

Pour vous présenter brièvement le congrès et sa philosophie, je reprends ici quelques paragraphes tirés du dossier de presse.

Lancé à Charleroi en 1974 et désormais organisé par l’Université Ouverte de la Fédération Wallonie-Bruxelles, le Congrès des économistes réunit tous les deux ans des économistes, des juristes, des politologues, des sociologues et d’autres experts issus de tous les horizons autour d’un thème d’actualité. En présence d’acteurs et décideurs des secteurs public et privé, les participants échangent et débattent sur les axes les plus saillants de la problématique choisie. (…)

[C]e 22e Congrès entend contribuer à (1) informer sur l’état des connaissances et des recherches sur le thème de l’innovation ; (2) débattre de la réalité actuelle et proposer des lignes d’action pour le futur ; (3) permettre aux acteurs, décideurs et chercheurs de confronter leur point de vue et/ou leur expérience de la thématique et (4) aborder un éventail de questions que pose l’innovation.

Les travaux du congrès sont articulés autour de quatre commissions: 1. Quelle politique digitale pour favoriser l’innovation ? 2. Innovation et politiques publiques ; 3. Transfert de technologies, gouvernance et entrepreneuriat ; 4. Innovation sociale, entrepreneuriat social et économie sociale.

Quelle politique digitale pour favoriser l’innovation ?

Personne ne niera qu’au fil des dernières décennies, nos sociétés ont été profondément transformées par les technologies digitales, qu’il s’agisse de technologies déjà bien établies (comme les smartphones et les réseaux sociaux) ou de technologies dont la diffusion est plus récente (comme le ‘cloud computing’ ou l’intelligence artificielle). D’une façon ou d’une autre, toutes ces technologies s’articulent autour d’Internet, qui est devenu une plateforme omniprésente sur laquelle s’appuient tous les secteurs de l’économie. Internet facilite en effet la communication et la création de nouvelles connaissances via des processus plus efficaces de traitement de l’information et de collaboration entre acteurs de l’économie (consommateurs, entreprises et autorités publiques).

green-computer-board

Il est donc légitime de considérer Internet comme une infrastructure fondamentale (‘General Purpose Technology’ en anglais), au même titre que les réseaux d’électricité, d’eau et de transport. Vus sous cet angle, Internet et les technologies digitales apparaissent comme de puissants vecteurs d’innovation et, partant, de croissance économique. Mais, il n’y a rien d’automatique dans ce processus car il doit composer avec trois sources majeures d’incertitude. Il y a tout d’abord une incertitude d’ordre technologique : les technologies digitales résultent elles-mêmes de processus innovants qui sont hautement couteux, risqués et interdépendants (vu la nécessité de rendre ces technologies interopérables). Il y a aussi une incertitude d’ordre commercial : une fois développées, ces technologies doivent encore trouver le chemin de la diffusion pour que leurs bénéfices puissent se matérialiser. Enfin, il y a une incertitude d’ordre sociétal : par leur caractère disruptif, les technologies digitales et les usages qui en sont faits perturbent le fonctionnement des marchés et nos modes de vie, ce qui pose d’évidents défis aux autorités publiques.

C’est dans ce contexte que s’inscrivent les travaux de la Commission ‘Digitalisation et Innovation’. L’objectif poursuivi est double : d’une part, nous cherchons à mieux comprendre comment innovation et digitalisation s’articulent ; d’autre part, nous nous appuyons sur cette compréhension pour guider la politique économique, de manière à faire en sorte que la digitalisation joue pleinement son rôle de catalyseur d’innovation et contribue ainsi à augmenter le bien-être dans nos sociétés. Dans la section suivante, vous trouverez les résumés de quatre contributions émanant d’économistes ; ces contributions analysent les moments-clés auxquels digitalisation et innovation s’entrecroisent, en allant de l’amont (les investissements en infrastructure et le financement des projets innovants) à l’aval (les modèles d’affaires innovants des plateformes digitales et l’impact des technologies digitales sur la productivité). LA dernière section présente les réflexions de juristes concernant la manière dont la digitalisation affecte les incitations à innover dans de nombreux secteurs d’activités, que ce soit via son impact sur le jeu concurrentiel ou, plus fondamentalement, sur la configuration des droits de propriété.

La digitalisation en amont et en aval des processus d’innovation

Dans une première contribution, intitulée ‘La neutralité du net n’est pas neutre’, Axel Gautier prend le problème à la source. Pour qu’Internet joue correctement ce rôle de facilitateur de l’innovation, il convient de s’assurer que les investissements nécessaires soient menés pour que les réseaux (tant fixes que mobiles) soient capables de rencontrer les besoins grandissants. Par exemple, on estime que si les réseaux demeuraient dans leur état actuel, il leur faudrait 450 millions d’années pour transmettre la quantité de données que l’on devrait produire par an d’ici 2025. Or, nous explique-t-il, les incitations à investir dans l’infrastructure de l’Internet dépendent, de façon cruciale, de la manière dont Internet est organisé et régulé. Une des premières difficultés vient du fait qu’Internet n’est pas sous la coupe d’un régulateur unique : ce sont en fait différents régulateurs qui supervisent différents aspects de son organisation (du régulateur des télécoms pour l’infrastructure aux autorités de la concurrence pour les aspects concurrentiels, en passant par des régimes règlementaires particuliers pour les questions relatives, par exemple, au commerce électronique ou à la protection de la vie privée). Une autre difficulté tient aux effets contrastés qu’entraîne ce qui est peut-être la seule véritable régulation spécifique de l’Internet, à savoir le principe de sa neutralité. Ce principe gouverne la gestion du trafic de données sur le réseau par les Fournisseurs d’Accès à Internet (FAI) ; il leur impose, pour faire simple, de traiter toutes les données de manière équivalente, d’où l’idée de ‘neutralité’. Tant en Europe qu’aux Etats-Unis, ce principe a fait l’objet d’une codification, inscrite dans des législations spécifiques.

Dans sa contribution, Axel Gautier explique d’abord qu’une des conséquences principales de la neutralité du net pour les FAI est la difficulté d’exiger des paiements de la part des fournisseurs de contenu et de services. Les FAI se plaignent alors d’avoir à supporter seuls tout le poids des investissements dans l’infrastructure du réseau. Même si les analyses économiques ne donnent pas nécessairement droit à cette revendication, force est de constater que le principe de neutralité du net pose des problèmes en termes d’incitations à développer l’infrastructure. Ceci explique que l’on discute de plus en plus de l’opportunité d’accommoder la règle, par exemple en tolérant certaines pratiques récentes des FAI (comme l’exclusion d’applications, le ‘zero rating’ ou l’établissement de ‘voies prioritaires’). Axel Gautier termine sa contribution en évaluant les conséquences de l’application de la neutralité du net en Belgique. Il montre que les FAI opérant en Belgique s’écartent relativement peu du principe de neutralité du réseau et que le réseau est, pour l’instant, correctement développé (en particulier, les infrastructures à très haut débit sont bien déployées grâce à la coexistence – particularité belge – des réseaux téléphonique et câblé). Il n’en reste pas moins que des investissements conséquents devront rapidement être consentis pour continuer à améliorer l’infrastructure, ce qui, à entendre les FAI, pourrait nécessiter une application plus souple de la neutralité du net.

Les deux contributions suivantes s’attachent à montrer comme la digitalisation transforme le processus d’innovation ‘par les deux bouts’. En amont, Fabrice Hervé et Armin Schwienbacher montrent qu’Internet et les technologies digitales ont rendu possible un nouveau mécanisme de financement de projets innovants, à savoir le financement participatif (ou crowdfunding). En aval, Xavier Wauthy démontre, en se penchant sur l’émergence des plateformes digitales, que l’innovation ne réside pas seulement dans la création de nouveaux produits ou de nouveaux procédés de production, mais aussi dans la mise au point de nouveaux modèles d’affaires visant à organiser, de façon plus efficace, les transactions entre producteurs et consommateurs de produits ou services existants.

5844980836_ee47a966c0_z

Le crowdfunding favorise-t-il l’innovation ?’. Telle est la question à laquelle Fabrice Hervé et Armin Schwienbacher tentent de répondre. Le crowdfunding, ou financement participatif, est apparu depuis quelques années comme un canal alternatif par lequel des entrepreneurs peuvent trouver le financement nécessaire à leurs projets. L’idée est simple : plutôt que s’adresser à un nombre limité d’investisseurs professionnels (banques, ‘venture capitalists’ ou ‘business angels’), les entrepreneurs tentent d’accumuler des petites sommes apportées par un grand nombre de contributeurs. Même si le principe n’est pas neuf (les auteurs rappellent, par exemple, que la Statue de la Liberté a été financée de cette manière), son déploiement n’a pu se réaliser que grâce à l’émergence de plateformes digitales, qui utilisent Internet et les technologies digitales pour réduire drastiquement les couts de transactions qu’entraîne ce genre d’interaction.

Après avoir décrit les différentes formes de crowdfunding que l’on rencontre actuellement, ainsi que le cadre juridique (encore en construction) dans lequel les plateformes de crowdfunding évoluent, les auteurs expliquent que le crowdfunding contribue à l’innovation de deux manières importantes et complémentaires. D’une part, le crowdfunding contribue à combler le manque de financement (‘funding gap’ en anglais) auquel sont confrontées les startups ; dès lors, en complétant l’offre de financement existante, le crowdfunding permet à davantage de projets innovants de voir le jour. D’autre part, le crowdfunding est susceptible de donner lieu à de ‘meilleures’ innovations, c’est-à-dire des innovations plus à même de rencontrer les besoins exprimés par les utilisateurs. De par son caractère participatif, le crowdfunding permet en effet de mettre en place un véritable processus de co-construction des projets entrepreneuriaux par lequel la foule de contributeurs n’apporte pas que des moyens financiers mais aussi une forme de validation des projets proposés, des retours d’expérience, voire des idées d’amélioration.

A l’autre bout du processus d’innovation, Xavier Wauthy  analyse ‘Les innovations en modèle d’affaires dans l’économie des plateformes’. Par ‘économie des plateformes’, il entend « l’ensemble des mécanismes d’échanges organisés autour de la mise en relation de différentes catégories d’agents économiques liés les uns aux autres par des externalités de réseau croisées », c’est-à-dire « des situations où l’attractivité d’un bien ou service pour une catégorie d’utilisateurs dépend, positivement ou négativement, du nombre et/ou des caractéristiques d’une autre catégorie d’utilisateurs du même bien ou service. » Les plateformes digitales se sont développées grâce à la numérisation des biens de contenus et aux capacités grandissantes de collecte, de traitement et de mise à disposition des données relatives aux individus et aux transactions qu’ils effectuent.

Xavier Wauthy distingue deux ‘âges’ dans le développement des plateformes digitales. Le premier âge est celui des plateformes fondées sur l’échange de biens numériques et dont les modèles d’affaires sont qualitativement peu innovants. Le deuxième âge, qu’il étudie plus en détail, s’inscrit quant à lui dans ce qu’il est convenu d’appeler l’économie collaborative. Ces plateformes sont réellement innovantes en ce qu’elles proposent de nouvelles formes d’intermédiation entre consommateurs et producteurs de services, agissant de manière décentralisée. Après avoir décrit les caractéristiques majeures de ces nouvelles plateformes, Xavier Wauthy replace leur émergence dans l’évolution de l’économie de marché elle-même. A cet égard, il souligne que ces plateformes promeuvent d’une part la décentralisation des échanges (vu qu’elles se bornent le plus souvent à faciliter des transactions de pair à pair) mais ne peuvent y parvenir qu’en centralisant fortement le traitement et le contrôle de l’information. Ce constat l’amène à évoquer ce qui pourrait être un ‘troisième âge’ des plateformes digitales, basé sur la technologie du ‘blockchain’ afin « d’embarquer, de manière permanente, en même temps que la transaction elle-même, tout l’historique attaché à l’objet de la transaction. » Un tel modèle entrainerait la disparition des intermédiaires centralisés puisque ce serait la communauté elle-même qui « ferait » le marché.

37144311086_9b1626cfdd_z

Finalement, dans sa contribution intitulée ‘Technologies digitales et productivité : le point sur une arme à double tranchant’, Nicolas van Zeebroeck s’interroge sur la capacité de la digitalisation à ‘faire tache d’encre’. En particulier, contribue-t-elle à augmenter la productivité des différents facteurs de production ? Cette question anime les économistes depuis les premiers pas de l’informatique. Qu’il s’agisse des ordinateurs de la fin des années 1980 (que l’on pouvait « voir partout sauf dans les statistiques de productivité », selon une célèbre remarque de Robert Solow) ou des évolutions successives des technologies de l’information et de la communication, leur impact sur la productivité a le plus souvent été estimé comme, au mieux, modéré et certainement bien décevants au regard de l’investissement réalisé.

Nicolas van Zeebroeck commence par relever diverses explications qui ont été proposées pour élucider ce paradoxe : erreurs méthodologiques (mauvaise mesure des causes et des effets, non prise en compte de la gratuité et des délais dans la réalisation des effets), utilisation déficiente des technologies par les entreprises, ou technologies digitales tout simplement peu génératrices de gains de productivité. Il propose ensuite sa propre explication en se basant sur des données d’enquête récentes (récoltées en collaboration avec Jacques Bughin). Par rapport aux travaux existants, l’approche est plus riche en ce qu’elle considère un champ plus large d’investissements en technologies digitales et qu’elle tient compte de l’articulation éventuelle entre ces investissements et la stratégie globale de l’organisation. Les résultats obtenus demeurent toutefois dans la ligne des constats précédents : les technologies digitales ne génèrent que peu – voire pas du tout – de gains de productivité au niveau d’une industrie particulière. Pour qu’une entreprise puisse espérer tirer bénéfice de ses investissements en technologies digitales, elle doit, grosso modo, faire mieux que ses concurrentes sur trois fronts : investir plus, opérer un changement de stratégie significatif et mieux intégrer la stratégie digitale dans la stratégie d’entreprise. Et encore faut-il, ajoutent les auteurs, que l’entreprise « n’en fasse pas trop » : rien ne sert de partir trop vite ou trop tôt et, surtout, de dépenser trop. Mais si ces conditions sont réunies, alors l’entreprise pourra réaliser des gains de productivité substantiels (jusqu’à trois à quatre fois supérieurs à la norme de son industrie). Il semblerait donc que les technologies digitales puissent, au final, générer des gains de productivité mais que ceux-ci soient inévitablement répartis de manière inégale entre les entreprises d’une même industrie (les gains de l’une se faisant aux dépens de la stagnation, voire des pertes, des autres).

Digitalisation et incitations à innover

Les deux dernières contributions émanent de juristes et nous invitent à réfléchir aux conditions qui favorisent l’innovation et à la manière dont la digitalisation est susceptible d’affecter ces conditions.

Dans un premier temps, c’est la relation entre innovation et concurrence qui est envisagée. Il est largement reconnu que cette relation est bidirectionnelle et complexe : le degré de concurrence sur un marché affecte l’innovation (en influant à la fois sur les incitations et sur les capacités à innover) et, en retour, l’innovation affecte le degré de concurrence (tantôt en renforçant, tantôt en renversant des positions dominantes). Dans leur contribution, intitulée ‘Les défis des technologies numériques pour la politique de concurrence’, Nicolas Petit et Alexandre de Streel montrent comment la digitalisation rend le lien entre innovation (souvent de rupture) et concurrence encore plus complexe. D’une part, les technologies digitales génèrent d’importants effets de renforcement tant du côté de l’offre (économies d’échelle) que du côté de la demande (effets de réseau), ce qui peut favoriser l’établissement de positions dominantes sur les marchés. D’autre part, les entreprises qui ont su tirer profit de ces effets de renforcement (à savoir essentiellement les géants de l’Internet que sont Google, Apple, Facebook, Amazon et Microsoft, rassemblés sous l’acronyme GAFAM) se retrouvent dans une configuration concurrentielle inédite qui combine des caractéristiques propres au monopole (chacune occupant une position dominante sur un segment de marché particulier) et d’oligopole (chacune empiétant joyeusement sur les platebandes des autres). Cette nouvelle configuration a des effets contrastés sur le processus d’innovation. D‘un côté, ces entreprises ont développé des capacités d’innovation énormes que seule la concentration des moyens (humains, en capital et en données) peut permettre. Cela leur permet – et c’est positif – de se lancer dans des projets à haut potentiel innovant et donc, à haut risque ; toutefois, leurs imposants moyens financiers leurs permettent aussi – et c’est plus inquiétant – de tuer dans l’œuf (via des acquisitions externes) toute innovation tierce qui serait susceptible d’éroder leur position. Il y a également à boire et à manger du côté des incitations à innover, que ce nouveau jeu concurrentiel affecte de deux manières opposées : vu la solidité de leurs positions dominantes respectives, les GAFAM peuvent avoir tendance à se reposer sur leurs lauriers, mais la rivalité qui les anime les pousse à innover continûment (soit en interne soit en acquérant des startups innovantes).

35432193725_915796fdac_z

Ce qui est certain, nous disent les auteurs, c’est que l’interpénétration entre digitalisation et innovation soulève d’importants défis pour l’application du droit de la concurrence. L’objectif de leur contribution est dès lors de clarifier le cadre conceptuel et méthodologique de la politique de concurrence sur les marchés des technologies digitales. Pour ce faire, ils énoncent cinq recommandations visant à guider l’évaluation concurrentielle, en prenant explicitement en compte les spécificités des technologies digitales et de leurs usages, ainsi que les impacts croisés entre concurrence et innovation. En particulier, les auteurs soulignent que dans le monde digital, les parts de marché sont un indice faible du pouvoir de marché et que l’analyse de l’intensité concurrentielle dans le marché pertinent doit être complétée par la prise en compte de la pression concurrentielle exercée par des entreprises rivales hors du marché pertinent et par une analyse de la position des firmes sur les marchés des intrants nécessaires à l’innovation. Les auteurs recommandent également que la politique de concurrence s’intéresse aux barrières à la rupture (‘disruption’) technologique que peuvent élever les firmes installées pour protéger leur rente.

Dans un second temps, c’est aux sources-mêmes des incitations à innover qu’il convient de réfléchir. Quand ils cherchent à évaluer les incitations à innover, les économistes s’interrogent sur les mécanismes par lesquels les innovateurs parviennent à s’approprier les fruits de leurs innovations. C’est dans cette logique que la propriété intellectuelle trouve sa rationalité économique : le brevet, par exemple, confère un droit exclusif à l’inventeur et lui permet ainsi de s’approprier (temporairement) les profits que génèrent l’exploitation de son invention. Le plus souvent, ce raisonnement économique considère comme donnée la configuration des droits de propriété. Or, nous l’explique Alain Strowel dans sa contribution intitulée ‘Les mutations des droits de propriété intellectuelle sous l’effet du numérique’, les droits de propriété (à entendre comme « toutes les institutions pour l’organisation de l’usage des ressources dans une société ») sont loin d’être figés. Au contraire, leurs contours font régulièrement l’objet de recompositions sous l’impact de changements législatifs, jurisprudentiels ou encore technologiques, des changements que la digitalisation provoque et amplifie.

En guise d’illustration, Alain Strowel analyse deux exemples de mutations des droits de propriété à l’ère numérique. Le premier exemple concerne la recomposition en cours des droits de propriété sur les données, qu’elles soient ‘personnelles’ ou ‘non personnelles’. L’enjeu ici, note l’auteur, est de bien comprendre que « le régime propriétaire englobe bien davantage que les règles déterminant le droit de propriété au sens strict : les dispositions contractuelles en font clairement partie, ainsi que les dispositifs pratiques de contrôle permis par la technologie. » Le second exemple a trait à la configuration du droit d’auteur face à de nouvelles pratiques numériques : le moissonnage de textes et données (‘Text and Data Mining’ ou TDM) et l’établissement d’hyperliens (‘hyperlinking’). La question ici n’est pas de savoir si un nouveau droit de propriété doit être instauré, mais de délimiter au mieux les droits existants. Ainsi se pose la question de savoir si et dans quelle mesure une exception au droit de reproduction doit être introduite pour la pratique de TDM. La question est actuellement discutée par le Conseil et le Parlement européens suite à la proposition de directive déposée en septembre 2016 par la Commission européenne. S’agissant des hyperliens, la bataille pour les contours du droit de propriété (en l’espèce le droit de communication au public intégré au faisceau des droits d’auteur) se déroule devant les tribunaux, notamment la Cour de justice de l’Union européenne.

Conclusion

Quels enseignements pouvons-nous retirer des travaux de cette commission ? En particulier, comment pouvons-nous répondre à la question qui nous était initialement posée : quelle politique digitale pour favoriser l’innovation ?

D’emblée, les travaux de la commission nous indiquent qu’il convient de reformuler la question. Il semble en effet illusoire – et probablement contreproductif – de vouloir mettre en œuvre une ‘politique digitale’ unique. Comme nous l’avons souligné ci-dessus, Internet et les technologies digitales constituent une infrastructure fondamentale (‘General purpose technology’) qui donne lieu à des utilisations extrêmement nombreuses, variées et mouvantes. Il est donc impossible de contrôler l’évolution de cet ‘écosystème’. Certes, l’autorité publique peut assurer les conditions de son développement, notamment en veillant à ce que le cadre législatif n’interfère pas avec les incitations des acteurs privés à investir dans l’infrastructure (Axel Gautier). Mais au-delà de cela, il convient de comprendre les multiples manières dont la digitalisation croissante de nos économies affecte toutes les étapes du processus d’innovation :

  • Les incitations à innover sont affectées par la reconfiguration des droits de propriété (Alain Strowel) et par l’émergence de nouvelles formes de concurrence (Nicolas Petit et Alexandre de Streel) ;
  • Les plateformes digitales permettent le développement de formes alternatives de financement de projets innovants (Fabrice Hervé et Armin Schwienbacher) ;
  • Les technologies digitales contribuent sans doute assez peu à augmenter la productivité des entreprises (Nicolas van Steenbroeck) mais donnent de nouvelle manière de créer de la valeur pour les consommateurs, notamment via des modèles d’affaires innovants (Xavier Wauthy).

La grande leçon à tirer des travaux de la commission est donc la suivante : il est indispensable d’identifier et de bien comprendre les mutations digitales du processus d’innovation pour pouvoir formuler non pas une ‘politique digitale favorisant l’innovation’ mais plutôt une ‘politique d’innovation s’appuyant sur les technologies digitales’.


Crédits photo: Photo on Visualhunt / Photo by Glenz Collection on Visualhunt.com / CC BY-NC / Photo by O’Reilly Conferences on Visual Hunt / CC BY-NC / Photo by mark knol on VisualHunt.com / CC BY-NC-SA

Uber va-t-il mourir ?

0
0

(First published on The Conversation)

Le titre de cet article n’est pas un effet de manche mais une question, légitime, que de plus en plus d’observateurs se posent. Il est indéniable qu’Uber (la plateforme bien connue de voitures avec chauffeurs) va mal. Au-delà de ses déboires avec les régulateurs de nombreuses villes (comme Londres ou Québec), des plaintes de ses chauffeurs pour salariat déguisé, d’un vol de données concernant ses clients et chauffeurs, d’accusations de sexisme au sein de l’entreprise, ou encore des frasques de Travis Kalanick, son ancien PDG, ce que les investisseurs reprochent avant tout à la compagnie c’est son incapacité à boucher l’énorme trou financier qu’elle n’a cessé de creuser depuis sa création.

Uber a encore perdu près de 3 milliards de dollars en 2016 et son incroyable capacité à lever des fonds (environ 15 milliards de dollars depuis 2009) semble se tarir devant son manque patent de rentabilité.

Derrière le baobab Uber se cache la forêt des plateformes de l’économie du partage, qui tiennent des places de marché dites « de pair à pair » (peer-to-peer ou P2P en anglais, d’où l’appellation également de « plateformes P2P »). C’est une forêt où beaucoup d’arbres sont plantés (les idées ne manquent pas et les capitaux pour les arroser, non plus), où certains arbres poussent très vite mais, pour la plupart, disparaissent (pensez, par exemple, à Take Eat Easy dans le secteur de la livraison de repas), et qui se transforment, au final, en larges clairières où ne subsiste qu’un très petit nombre de grands arbres aux racines peu profondes.

Véhicule Uber. BrennanF30/Flickr, CC BY

À y regarder de plus près, on s’aperçoit que ce n’est pas qu’Uber qui est malade. En fait, c’est tout le modèle d’affaires des plateformes P2P qui subit les assauts de trois maux profonds : (1) la réaction des firmes conventionnelles ; (2) la concurrence d’autres plateformes P2P ; (3) le piège de la fuite en avant.

Réaction des firmes conventionnelles

Voyant leurs parts de marché se réduire, les firmes conventionnelles ont déployé de nouvelles stratégies pour contrer l’entrée de plateformes P2P ou, à tout le moins, pour en minimiser l’impact négatif. Matzler et coll. (2015) répertorient et illustrent les principales stratégies mises en œuvre :

  • vendre l’usage du produit plutôt que le produit lui-même ;
  • aider les clients à revendre leurs biens ; exploiter les ressources et capacités inutilisées ;
  • offrir un service de réparation et de maintenance ;
  • utiliser l’économie P2P pour cibler de nouveaux clients ; développer un nouveau modèle d’affaires via l’économie P2P.

Les firmes conventionnelles bénéficient aussi (à juste titre, diront-elles) des réactions des régulateurs qui, peu à peu, adaptent les cadres légaux avec l’objectif de mettre firmes conventionnelles et nouveaux entrants sur un pied d’égalité.

Concurrence entre plateformes P2P

Souvent, ce n’est pas une mais plusieurs plateformes P2P qui tentent de s’installer sur un même marché. La concurrence à laquelle les plateformes P2P se livrent est singulière en ce sens qu’elle porte simultanément sur plusieurs « versants » : les plateformes concurrentes doivent en effet se battre pour attirer à la fois des producteurs et des consommateurs, tout en sachant que les uns ne viennent pas sans les autres et inversement.

Les effets externes positifs qui existent entre les versants exacerbent donc la concurrence : en attirant un producteur supplémentaire, non seulement la plateforme attire davantage de consommateurs mais souvent, elle réduit aussi la capacité de sa rivale à faire de même (dans la mesure où le producteur attiré par l’une ne peut plus être attiré par l’autre).

Chaque participant a donc énormément de valeur aux yeux des plateformes concurrentes et l’on comprend que dans un tel contexte, la concurrence risque de faire place rapidement à une position dominante : dès qu’une plateforme gagne du terrain par rapport à ses concurrentes, son avance croît naturellement en raison des effets de réseau positifs (une plateforme qui a plus de consommateurs, attire plus de producteurs, ce qui attire encore plus de consommateurs et ainsi de suite).

Il est donc fort probable que le gagnant emporte tout, ne laissant que des miettes aux perdants (des services de niche ou des zones géographiques limitées).

Le piège de la fuite en avant

Qu’une plateforme P2P se batte contre une firme conventionnelle ou contre une autre plateforme P2P, sa principale stratégie à court terme consiste à… grandir. Il faut atteindre ce qu’il est convenu d’appeler une « masse critique » d’utilisateurs, c’est-à-dire cette taille à partir de laquelle la croissance se nourrit d’elle-même grâce aux effets de réseau.

Mais, comme le notent Hagiu et Rothman (2016), il est dangereux de vouloir grandir trop vite et à tout prix. En se braquant sur le nombre de participants qu’elle attire, la plateforme risque de négliger la qualité du service d’intermédiation qu’elle offre ; elle se met alors à la merci d’une plateforme entrante qui aura appris des erreurs de son aînée et sera ainsi mieux à même de proposer des transactions mutuellement bénéficiaires aux participants.

La stratégie de croissance rapide est également très coûteuse à court terme. C’est en fait un pari sur l’avenir : la plateforme s’endette aujourd’hui pour attirer des participants, en espérant pouvoir rentabiliser cet investissement demain, une fois qu’elle aura atteint une position dominante. Pour que ce pari soit gagnant, il faut convaincre les bailleurs de fonds qu’il s’agit là d’une prophétie autoréalisatrice.

Le discours tenu par les start-up peut se résumer à ceci : « C’est précisément parce que vous me financez moi plutôt que mes rivaux que je vais dominer le marché et, ainsi, rentabiliser votre investissement ».

Le défi pour les bailleurs de fonds est alors de miser sur le bon cheval. En outre, ils doivent espérer que leur cheval ne remportera pas, au final, une victoire à la Pyrrhus, c’est-à-dire qu’il s’est certes débarrassé de ses rivaux mais sans pouvoir lui-même être rentable.

William Shu, fondateur de Deliveroo à une conférence RISE Hong Kong le 1 juin 2016. RISE/Flickr, CC BY

Vers une « uberisation 2.0 » ?

Demeure donc cette question lancinante : comment atteindre le seuil de rentabilité ? Évincer les concurrents du marché ne suffit pas (même si c’est indéniablement un avantage) ; il faut aussi empêcher l’entrée de nouveaux concurrents et le retour en force des entreprises conventionnelles qui parviennent à appliquer les nouvelles recettes dans leurs vieilles casseroles.

Or, pour augmenter leurs marges, les plateformes P2P n’ont pas 36 solutions : elles peuvent réduire leurs coûts et/ou augmenter leurs prix. Mais ces deux stratégies n’ont guère de chances de fonctionner.

Du côté des coûts, les possibilités semblent limitées : il ne reste plus grand-chose à améliorer en termes de logistique et les prestataires de services ne peuvent décemment plus être pressurés davantage (comme l’attestent les manifestations des chauffeurs d’Uber ou des livreurs de Deliveroo).

Du côté des prix, l’horizon ne semble pas beaucoup plus dégagé. Les consommateurs des places de marché P2P se révèlent très sensibles aux prix. Par exemple, Owyang et Samuel (2015) ont sondé plus de 50 000 utilisateurs américains et canadiens de plateformes P2P : 68 % des sondés donnent les prix bas comme une des raisons principales qui les poussent à utiliser ces plateformes.

Il y a donc fort à parier qu’une augmentation des prix générerait la désertion de bon nombre de consommateurs, qui entraîneraient dans leur sillage de nombreux prestataires de service vu les effets externes qui sont à l’œuvre sur ces plateformes. Un cercle vicieux s’engagerait donc, qui mettrait encore plus en danger la rentabilité des plateformes.

Bien malin qui peut prédire l’avenir mais il apparaît difficile de soutenir à terme un modèle de plateforme « pur et dur » (c’est-à-dire centré exclusivement sur l’intermédiation, sans véritable activité de production ni actif physique).

S’oriente-t-on dès lors vers des modèles hybrides où des entreprises combineraient l’intégration verticale pour certaines opérations et des fonctions d’intermédiation pour d’autres ? Des tentatives de ce genre s’observent déjà, à l’initiative soit de plateformes entrantes soit de firmes conventionnelles.

Ainsi, Deliveroo revient vers une organisation plus intégrée en investissant dans des cuisines industrielles, Airbnb co-développe des projets immobiliers, et Uber investit dans des projets de véhicules autonomes ou volants. Dans l’autre sens, AccorHotels opère une transformation digitale et se pose de plus en plus comme une plateforme offrant des services aux hôteliers.

On peut donc penser que le salut est dans la convergence entre entreprises conventionnelles et plateformes P2P. Reste à savoir si Uber parviendra à se réinventer de la sorte ou s’il finira par disparaître corps et âme, entraînant dans sa chute des investisseurs qui réfléchiront sans doute à deux fois avant de miser à nouveau sur les plateformes de l’économie du partage.

Modèles économiques des données : une relation complexe entre demande et offre (1)

0
0

Cette série de trois articles vise à mieux comprendre comment s’organisent actuellement les échanges de données. Dans ce premier article, je décris le côté de la demande, en étudiant pourquoi, et comment, les données acquièrent de la valeur. Dans l’article suivant, je considère le côté de l’offre, en examinant d’où viennent les données et qui en contrôle la production et la collecte. Enfin, dans le troisième article, je décris les différentes modalités sous lesquelles l’offre et la demande se rencontrent.

Big data

(La version intégrale de cette étude est parue dans le Numéro 2 (Juin 2018) d’Enjeux Numériques. Tous les articles de ce numéro sont consacrés à l’économie et à la régulation des Big Data. Ils sont en libre accès ici.)


Introduction

Le 19 mars 2018, Facebook dégringole en Bourse après la révélation que la société Cambridge Analytica a utilisé les données personnelles de près de 50 millions d’utilisateurs du réseau social sans leur consentement1. On apprend aussi ce jour-là que les selfies des internautes, qui peuvent servir à valider des processus d’identification, se négocient à des prix allant jusqu’à 70 dollars sur les marchés clandestins du ‘Dark Web’. Quelques mois plus tôt, la société iRobot revenait sur ses déclarations antérieures selon lesquelles elle cherchait à revendre les données collectées par ses robots aspirateurs Roomba, capables de réaliser une carte virtuelle des endroits qu’ils nettoient. La société Uber, quant à elle, annonçait la création d’une plateforme visant à partager gratuitement des données de déplacements de ses chauffeurs et clients avec les planificateurs urbains des quatre cent cinquante villes où elle est active .

Ces quelques événements récents montrent toute l’importance que les échanges de données occupent dans nos économies. Ils illustrent aussi les différentes formes que peuvent prendre ces échanges, partage librement consenti (cas d’Uber), vol pur et simple (les selfies sur le Dark Web), ou encore échanges encadrés par des dispositions contractuelles plus ou moins claires (cas de Facebook et d’iRobot).

L’objectif de cette série d’articles est de mieux faire comprendre comment s’organisent les échanges de données. Pour ce faire, je commence par décrire le côté de la demande, en étudiant pourquoi, et comment, les données acquièrent de la valeur. Je considère ensuite le côté de l’offre, en me demandant d’où viennent les données et qui en contrôle la production et la collecte (voir l’article suivant). Il s’agit enfin de comprendre comment l’offre et la demande se rencontrent. Je conclus en réfléchissant aux évolutions que pourraient prendre les échanges de données dans le futur (troisième article).

Le côté de la demande

La demande de données émane d’entreprises, mais aussi d’organisations non commerciales (des villes par exemple) qui cherchent à améliorer leurs pratiques. Il s’agit d’une demande induite car ce ne sont pas les données en elles-mêmes qui sont recherchées mais bien les informations qui peuvent en être extraites et, finalement, les connaissances que génèrent ces informations et qui contribuent à la prise de décisions2. On comprend donc pourquoi la demande de données est un phénomène récent. En effet, la capacité d’accroître la valeur des données en les transformant en informations a considérablement augmenté ces dernières années sous l’effet conjoint de la numérisation et de la « datafication ». La première tendance est la généralisation du format numérique qui permet de stocker, dupliquer et transmettre les données électroniquement bien plus vite et à un coût énergétique nettement moindre. La seconde tendance est la multiplication des traces numériques laissées derrière elles par nos activités, que ce soit par nos ordinateurs et smartphones, par les réseaux sociaux, ou les senseurs de nos objets connectés. À cela s’ajoute le développement d’une nouvelle discipline scientifique, la science des données, qui combine outils mathématiques, statistiques et informatiques pour optimiser l’extraction de connaissances à partir d’ensembles de données.

En résumé, la demande de données est en pleine expansion parce que tant les données disponibles que la capacité de les traiter ne cessent de croître. La valeur des données augmente en effet avec ce qu’il est convenu d’appeler les quatre V des données, à savoir leur volume (d’où le terme de big data, qui suggère des économies d’échelle), leur variété (c’est-à-dire la diversité de leurs sources, qui suggère des économies d’envergure), leur vélocité (c’est-à-dire la rapidité avec laquelle les flux de données peuvent être traités) et, naturellement, leur véracité (ou leur précision, qui détermine la confiance qu’on peut leur accorder).

Les entreprises sont avides de données parce qu’elles cherchent à améliorer leurs processus de production, à développer des produits et services innovants et à mieux cibler leurs clients avec des offres, des publicités et des prix adaptés. Comme chaque entreprise a pour objectif de surpasser ses concurrentes, une course s’engage à qui utilisera au mieux les données disponibles. En découlent deux conséquences importantes pour la demande de données. D’une part, les entreprises ont une disposition à payer beaucoup plus élevée pour des données auxquelles elles ont un accès exclusif que pour des données qu’elles devraient partager avec leurs concurrents. D’autre part, il est possible qu’au sein d’une industrie, les entreprises concurrentes investissent de manière excessive dans l’acquisition et le traitement de données, avec comme effet que les profits des entreprises finissent par baisser. En d’autres termes, comme dans le célèbre dilemme du prisonnier, des entreprises concurrentes gagneraient à restreindre collectivement leur utilisation de données, mais aucune n’y trouve intérêt individuellement.


1. Révélations faites par The Guardian et The New York Times.

2. Thierauf (1999) définit les données comme une collection non structurée de faits et de chiffres, l’information comme des données structurées et la connaissance comme de « l’information à propos de l’information ». Voir THIERAUF R.J. (1999), Knowledge Management Systems, Quorum Books.


Photo credits: (1) janholmquist on Visual Hunt / CC BY-NC; (2) Photo credit: ocd007 on VisualHunt.com / CC BY-ND

Modèles économiques des données : une relation complexe entre demande et offre (2)

0
0

Cette série de trois articles vise à mieux comprendre comment s’organisent actuellement les échanges de données. Dans le premier article, j’ai décrit le côté de la demande, en étudiant pourquoi, et comment, les données acquièrent de la valeur. Ici, je considère le côté de l’offre, en examinant d’où viennent les données et qui en contrôle la production et la collecte. Enfin, dans le dernier article ce cette série, je décris les différentes modalités sous lesquelles l’offre et la demande se rencontrent.

Le côté de l’offre

Les données que valorisent les entreprises proviennent de trois sources. Tout d’abord, de nombreuses bases de données sont en accès libre. La plus grosse partie de ces “données ouvertes” est produite par le secteur public (on pense à des données statistiques, scientifiques ou cartographiques) ; des organisations comme les universités ou les organisations non gouvernementales ouvrent également leurs données ; même des entreprises commerciales peuvent y trouver un intérêt (à l’instar d’Uber mentionnée dans l’introduction e cette série d’articles). Ensuite, les entreprises produisent elles-mêmes énormément de données au fil de leurs activités et par les produits qu’elles vendent1. Finalement, vous et moi sommes sans doute les plus gros pourvoyeurs des données qui intéressent les entreprises. C’est le phénomène de “datafication” que j’évoquais dans l’article précédent : nous produisons des données soit directement par nos activités (les photos ou les ‘likes’ que nous postons sur les réseaux sociaux, les sites que nous visitons, les mails que nous envoyons, etc.), soit indirectement par les machines ou équipements que nous utilisons (un smartphone dont la géolocalisation est activée ou une montre connectée par exemple). Ces données sont précieuses pour les entreprises dans la mesure où elles indiquent nos goûts, nos habitudes de consommation, nos interactions sociales, etc.

Pour la suite de l’analyse, il est important de déterminer dans quelle mesure on peut parler d’une offre de données. Pour qu’une offre existe, il faut que l’accès aux données puisse être contrôlé, de sorte que le producteur puisse fixer les termes d’une éventuelle transaction. Pour les deux premières sources de données, les producteurs ‒ organismes publics, entreprises ‒ sont largement en mesure de déterminer les conditions d’accès à leurs données : l’accès est délibérément rendu public pour les données ouvertes ; pour les données d’entreprises, nous verrons dans la section suivante que l’accès est le plus souvent fermé ou encadré par des dispositions contractuelles.

Qu’en est-il des données que nous produisons en tant qu’individus ? Pouvons-nous en contrôler l’accès ? En théorie, oui. Les sites web que nous visitons, ou les objets connectés que nous utilisons, nous invitent à signifier notre accord avec leurs conditions d’utilisation. Même si la possibilité nous est laissée de refuser que nos données soient collectées, nous n’exerçons pas, ou très peu, cette option (qu’on appelle en anglais “opt out”). Pourquoi ? Une première raison est que nous jugeons trop coûteux (en temps et en effort) de prendre connaissance des conditions d’utilisation ou d’appliquer des mesures pour limiter la collecte de nos données2. Une seconde raison, qui justifie partiellement la première, est que nous acceptons d’obtenir, en échange de nos données, des services moins chers (souvent gratuits), mieux adaptés à nos besoins (comme des offres ciblées) et potentiellement de meilleure qualité3. Cela revient à dire que nous associons un ‘prix virtuel’ à nos données et donc à notre vie privée.

Il arrive que ce prix virtuel devienne un prix réel. C’est le cas quand des entreprises (par exemple des fournisseurs d’accès à Internet) différencient leurs services en proposant aux consommateurs de payer plus cher pour éviter de voir leurs données collectées ou de recevoir des publicités ciblées. En choisissant ce genre d’offres, les consommateurs révèlent leur volonté de payer pour protéger leur vie privée. Il s’agit toujours ici d’un système “opt out” puisque c’est au consommateur de payer pour fermer l’accès à ces données. Que se passe-t-il si, à l’inverse, c’est à l’entreprise de payer le consommateur pour qu’il ouvre l’accès à ses données (système “opt in”) ? On a envie de penser que rien ne devrait changer pour un même montant monétaire (à payer ou à recevoir) et une même variation (à la hausse ou à la baisse) du degré de protection des données. Mais des études montrent qu’en général, les consommateurs demandent en échange d’une érosion de leur vie privée un montant monétaire plus élevé que celui qu’ils sont prêts à payer pour protéger leur vie privée dans une même mesure4. Les consommateurs semblent donc attacher une valeur plus importante à leurs données quand leur consentement est nécessaire pour l’utilisation (“opt in”), plutôt que pour l’absence d’utilisation (“opt out”) de celles-ci.


1. On estime par exemple qu’une voiture autonome génère jusqu’à 100 gigabytes de données par seconde (soit l’équivalent de plus de 5 millions de pages de texte).

2. Il faudrait 76 jours pour lire l’intégralité des conditions d’utilisations qu’un Américain moyen accepte de signer en un an (GRALLET et al., 2018). Pour limiter l’accès à ses données, il est possible, par exemple, d’effacer les cookies de son navigateur ou de passer par des serveurs proxy.

3. Par exemple, un compteur communicant n’a véritablement de valeur ajoutée que s’il peut mesurer de manière précise notre consommation d’eau ou d’électricité.

4. Voir ACQUISTI A., JOHN L.K. et LOEWENSTEIN G. (2013), “What is Privacy Worth?”, The Journal of Legal Studies, 42, pp. 249-74. Voir aussi l’excellente série d’articles qu’Eva-Maria SCHOLZ a consacrée à ce sujet sur ce blog.


Photo credit: (1) Photo on VisualHunt; (2) Radagast on Visual hunt / CC BY-NC

Modèles économiques des données : une relation complexe entre demande et offre (3)

0
0

Cette série de trois articles vise à mieux comprendre comment s’organisent actuellement les échanges de données. Dans le premier article, j’ai décrit le côté de la demande, en étudiant pourquoi, et comment, les données acquièrent de la valeur. Dans le deuxième article, je considère le côté de l’offre, en examinant d’où viennent les données et qui en contrôle la production et la collecte. Enfin, je décris ici les différentes modalités sous lesquelles l’offre et la demande se rencontrent. Je m’interroge aussi quant au fait qu’une fraction assez limitée de ces données est échangée. Je propose à cet égard trois explications : le caractère stratégique des données pour les entreprises, la difficulté d’organiser des places de marché décentralisées et le manque de contrôle des individus sur les données qu’ils produisent.


La mise en relation de l’offre et de la demande

Williamson (1991)1 distingue trois façons d’organiser les transactions économiques : la “hiérarchie” organise les transactions au sein d’une entreprise intégrée, le “marché” utilise le mécanisme des prix pour coordonner offre et demande et, entre ces deux extrêmes, les “formes hybrides” reposent sur des contrats spécifiques.

Actuellement, les transactions sur les données s’organisent essentiellement par le mode hiérarchique ou par des formes hybrides. Dans le premier cas, les entreprises collectent directement, ou produisent elles-mêmes, les données dont elles ont besoin. Quand il s’agit de données personnelles, nous avons vu plus haut que la collecte s’appuie sur des contrats de type “opt-out” : pour dire les choses crûment, les entreprises se servent tant que les consommateurs ne les en empêchent pas. Nous avons montré aussi que l’intégration verticale se justifie dès lors que les données permettent d’obtenir un avantage concurrentiel (les entreprises n’ont en effet aucun intérêt à partager les données qu’elles récoltent et moins encore l’information et la connaissance qu’elles en extraient). Les dispositions légales limitant le partage de données personnelles viennent renforcer cette tendance à l’intégration verticale.

Il arrive toutefois que des entreprises trouvent profitable de partager leurs données, afin de mieux coordonner leurs activités. On pense par exemple aux entreprises collaborant à la mise au point de voitures autonomes. Les transactions se basent alors sur des contrats multilatéraux de long terme. Une autre forme de gouvernance hybride est le recours à des intermédiaires spécialisés dans la collecte et le traitement de données. On les appelle “courtiers en données” (“data brokers” en anglais). Les services sur mesure que proposent ces courtiers sont particulièrement prisés par les entreprises qui ne peuvent pas collecter de données par elles-mêmes. En raison des économies d’échelle et d’envergure évoquées plus haut, l’industrie des courtiers en données est dominée par quelques entreprises, en majorité américaines, qui rassemblent des données diverses sur des centaines de millions de consommateurs de par le monde ; citons Acxiom (marketing), Equifax (assurance), Experian (crédit), Corelogic (immobilier) ou Datalogix (finance).

À ce jour, il n’existe pas de “marché des données” à proprement parler. On trouve certes quelques plateformes d’échange de données mais celles-ci sont limitées à une industrie particulière et restreignent considérablement les transactions qui peuvent être effectuées. Ceci s’explique par le paradoxe suivant : comme les données sont stratégiques, la disposition à payer pour des données non exclusives est généralement faible, voire nulle ; mais parce que les données sont non rivales (la consommation par l’un ne réduit pas les possibilités de consommation par l’autre), l’exclusivité est difficile à garantir, singulièrement dans un mécanisme d’échange décentralisé. En outre, il est difficile d’établir rigoureusement la véracité des données, ainsi que leur valeur, en raison de leur unicité (absence de point de comparaison) ou de leur complémentarité (il faut combiner plusieurs bases de données pour extraire de l’information pertinente2).

Conclusion

En résumé, une quantité sans cesse croissante de données est produite, collectée et utilisée mais, en définitive, une fraction assez limitée de ces données est échangée. Nous avons identifié trois explications : le caractère stratégique des données pour les entreprises, la difficulté d’organiser des places de marché décentralisées et le manque de contrôle des individus sur les données qu’ils produisent. Sur ce dernier point, on peut s’attendre à des transformations importantes dans un futur assez proche. En effet, un nouveau texte européen, intitulé Règlement Général sur la Protection des Données (RGPD), vient d’entrer en vigueur ; il impose aux entreprises de donner aux individus davantage de contrôle sur leurs données personnelles. Cela signifie que les entreprises doivent désormais obtenir un consentement explicite et positif des individus pour pouvoir utiliser leurs données et, également, assurer la portabilité de ces données (c’est-à-dire permettre aux consommateurs d’emmener leurs données avec eux lorsqu’ils changent de fournisseur). Comme l’expliquent Peitz et Schweitzer (2017)3, la portabilité empêche le verrouillage et facilite ainsi la concurrence dans l’accès aux données personnelles (à défaut de mettre en place un véritable marché secondaire des données).

Une autre source de changement est le développement de nouveaux intermédiaires qui proposent aux consommateurs des solutions pour gérer activement leurs données personnelles et, potentiellement, les monétiser4. Enfin, le scandale Facebook/Cambridge Analytica (qui ouvre cet article) a suscité de telles réactions des internautes et des pouvoirs publics qu’on est en droit de penser qu’une nouvelle ère commence où les transactions sur les données personnelles seront plus encadrées, plus transparentes et plus respectueuses des individus.


1. WILLIAMSON O.E. (1991), “Comparative Economic Organization: the Analysis of Discrete Structural Alternatives”, Administrative Science Quarterly, 36, 269-296.

2. Pour une analyse plus détaillée, voir KOUTROUMPIS P., LEIPONEN A. et THOMAS L. (2017), “The (Unfulfilled) Potential of Data Marketplaces”, ETLA Working Papers, no 53.

3. PEITZ M. et SCHWEITZER H. (2017), “Datenmärkte in der digitalisierten Wirtschaft: Funktionsdefizite und Regelungsbedarf”, Discussion Paper No. 17-043, ZEW, Mannheim.

4. On les appelle PIMS (Personal Information Management Systems) ou systèmes de gestion des informations personnelles. Les plus connus sont Datacoup, Digi.me et Meeco.


Photo credits: (1) Photo on Visual hunt; (2) Photo credit: Cerillion on VisualHunt / CC BY

Viewing all 57 articles
Browse latest View live




Latest Images