Données personnelles : sésame déterminant sur le marché de la publicité digitale

in #rgpd3 years ago (edited)

La présente étude est consacrée à la liberté restreinte des internautes dans la gestion de leurs données personnelles et de l’influence de ce constat sur la structure du marché de la publicité digitale.

Comme l’or noir développa l’économie du XXè siècle, les données sont à la base de celle du XXIè siècle au point que la Commission européenne y a consacré un projet, « une économie européenne de la donnée », détaillé dans sa communication éponyme du 10 janvier 2017 (1) . Certes, les informations ont toujours occupé une place importante dans le commerce ; cependant, l’économie digitale a développé leur potentiel (2) : qui mieux connaît sa cible est assuré d’attirer et de garder son attention, avec un meilleur espoir de vendre, tout ceci en temps réel. Cette captation du consommateur et en particulier du cyberacheteur, se réalise grâce à un outil vieux comme le monde : la publicité. Revisitée à l’ère digitale, elle se veut plus divertissante, plus réactive et plus ajustée (3) . Mieux orientée en effet, elle permet au consommateur d’aller directement vers ce qu’il recherche ou ce qu’il serait susceptible de chercher. Ainsi peut-elle être perçue comme un service rendu grâce aux informations sur l’individu. « Les big Data, observe-t-on, ont également un côté attrayant pour les utilisateurs qui peuvent profiter de services parfaitement adaptés à leurs goûts et à leurs préférences personnelles, et qui pourront évoluer au fil du temps en s’ajustant automatiquement à leurs besoins » (4) . Toutefois point d’angélisme : le service est d’abord vendu aux annonceurs. Vivant sous le regard constant et intrusif d’un Big Brother (5) ou d’un Œil (6) , l’individu connecté, profilé, géolocalisé, tracé... peut perdre toute spontanéité, choix et libre arbitre (7) . Le déterminisme de Spinoza trouve ici un écho retentissant. Lorsqu’il écrit en 1674 dans sa lettre 58 à Schuller que les hommes se croient libres parce qu’ils sont conscients de leurs désirs mais ignorants des causes qui les déterminent, (8) le parallèle avec le déterminisme du consommateur actuel est patent. Les désirs de celui-ci sont clairement orientés - déterminés - grâce au profilage permis par les données récoltées ici et là, et de plus en plus par les objets connectés (9) , associés à des algorithmes de plus en plus perfectionnés (I).

Cette menace est à la fois la cause et la conséquence de la structure du marché de la publicité digitale : celle-ci cloisonne l’internaute ou m-consommateur, et ce cloisonnement renforce, de façon synchrone, la structure du marché. Si le numérique bouscule quelque peu les concepts (10) , comme l’[entente algorithmique](http://ssrn.com/abstract=2591874) , le marché de la publicité en ligne est en effet aujourd’hui totalement tributaire des données personnelles et de leur régime de protection, et par conséquent, sous l’emprise de quelques opérateurs, les GAFA pour ne pas les citer, qui, par les fameux effets de réseaux, sont devenus incontournables sur les deux faces du marché, celui tourné vers les internautes et celui axé sur les annonceurs. (II).

## LE DÉTERMINISME ALGORITHMIQUE DU CONSOMMATEUR

La plus grande évolution dans l’économie digitale n’est pas tant le profilage des individus, qui existe depuis l’origine du commerce, que la facilité et le temps réel dans lequel il se produit : la collecte des données comme leur traitement se fait en une fraction de seconde, devançant presque les besoins de l’internaute. Bien sûr, il existe des moyens de contrôler et de protéger ses données personnelles. La loi « Informatique et Liberté » du 6 janvier 1978 et le Règlement nº 2016-679 du 27 avril 2016 relatif à la protection des personnes physiques à l’égard du traitement des données à caractère personnel et à la libre circulation de ces données (RGPD) envisagent tout un arsenal de mesures en ce sens. Il est toujours possible de refuser de transmettre ses données, de ne pas s’inscrire sur un site, d’exclure les cookies ou bien d’installer un ad blocker.

Pour autant, ces facultés ne sont pas forcément effectives.

D’une part, si l’internaute doit donner son consentement à la collecte et au traitement de ses données personnelles, les informations peuvent être puisées aujourd’hui dans bien d’autres sources que celles dispatchées par l’internaute lui-même. En premier lieu, les datas shadow, à savoir des informations relatives à certains individus issues d’autres individus, comme on peut les trouver sur les réseaux sociaux, constituent une source très importante. Les informations divulguées par les amis sur un de leur ami n’ont pas forcément été acceptées par ce dernier. En second lieu, la « black data », qui renvoie à l’ensemble des données cachées dans le système informatique (parcours du client dans le rayon, discussions téléphoniques issues du service après-vente, emplacement de parking...), devient incontournable. Enfin, une attention particulière doit être portée sur les métadonnées découlant des communications électroniques. Elles comprennent « les numéros appelés, les sites Web visités, le lieu, la date, l’heure et la durée des appels passés par un individu, etc. » et « permettent de tirer des conclusions précises sur la vie privée des personnes intervenant dans la communication électronique, comme leurs rapports sociaux, leurs habitudes et activités au quotidien, leurs intérêts, leurs goûts, etc. » (12) . Ces données sur « la donnée » peuvent fournir des informations personnelles sur les individus. Une étude réalisée par trois chercheurs de Stanford a ainsi montré qu’il est possible de déduire qu’une personne est cardiaque au regard des appels qu’elle a passé à un cardiologue et à une pharmacie et de leur durée (13) .

La proposition de Règlement concernant le respect de la vie privée et la protection des données à caractère personnel dans les communications électroniques, abrogeant la directive 2002/58/CE (« Règlement e-privacy ») du 10 janvier 2017, considère ces métadonnées pour leur faire suivre le même régime que celui applicable aux données personnelles. En complément, les OTT (Over the Top service, de type Skype, Facebook mensenger ou WhatsApp) qui échappaient jusqu’à présent à la directive de 2002, intégreront le régime général et ce, dans le souci de promouvoir un développement équilibré du commerce électronique entre les fournisseurs de services de communication traditionnels et les messageries par contournement (14) .

Si des avancées sont donc notables, on peut toutefois relever des lacunes, en particulier en matière d’agrégations de données pour lesquelles l’internaute n’a pas plus donné son consentement. On sait en effet que les multiples sources de données sont rassemblées en une seule grande base de données, et traitées avec des algorithmes très pointus qui permettent de profiler très finement les internautes : « le potentiel réel des Big Data se réalise lorsque les multiples sources de données sont rassemblées en une seule base de données, et traitées avec des algorithmes sophistiqués pour l’analyse de données (data mining). C’est grâce à des outils d’inférence statistique ou de déduction qu’il sera alors possible d’extraire de nouvelles informations qui n’auraient pas pu être facilement accessibles à partir des jeux de données individuels » (15) . Or, là non plus, son accord n’est pas requis.

Ensuite, si les cookies et autres traceurs - qui permettent de cibler publicité - doivent être acceptés par l’internaute (art. 32 II de la loi de 1978), la réalité montre que celui-ci n’a guère le choix. Bien souvent, avant même que l’internaute n’ait donné son accord, il est déjà « tracé ». Tout d’abord, la qualité de l’opérateur déposant le cookie peut brouiller les pistes (16) et soulève la question de qui doit, en temps réel, recueillir le consentement. Pour la CNIL, « dans tous les cas, les éditeurs de sites dont la visite déclenche le dépôt des cookies sont les seuls en mesure de fournir une information directe sur les cookies déposés sur les terminaux des internautes ». Il leur revient donc d’adresser une information aux internautes sur les cookies déposés et les moyens dont ils disposent pour s’y opposer. La CNIL exige d'utiliser des solutions de mesure d'audience conformes au RGPD et à ses recommandations. Cette réglementation risque cependant d’évoluer avec la future réforme de la « directive e-privacy ». En effet, la proposition de règlement présentée le 10 janvier 2017 envisage de permettre aux internautes d’accepter ou refuser les cookies et autres traceurs directement dans les paramètres de confidentialité de leur navigateur. L’acceptation par défaut serait permise, ce qui rassure l’industrie publicitaire mais inquiète des associations telle que la Quadrature du net pour qui l’internaute lambda ne vérifie pas les paramètres de son ordinateur et sera donc aux prises de fuite de ses données, d’annonces ciblées...

Ne pouvant parfaitement contrôler ses données personnelles, l’individu, sans s’en rendre compte, n’a d’autre choix que de subir la publicité orientant ou même devançant ses désirs. Certes, l’internaute peut se rebeller et décider de ne pas subir de publicité digitale en installant un bloqueur ; mais, outre que cette censure prête à discussion, l’individu peut aussi être « sanctionné » par un refus d’accès au site.

Ces captations des données personnelles sans l’accord libre ou éclairé des intéressés et pour des raisons commerciales, peuvent indisposer, parfois indigner. Elles le sont moins lorsqu’est en jeu la santé de la personne. Mais là encore, une dérive n’est pas exclue car le monde de la santé est aussi un formidable marché. Le Règlement de 2016 prévoit en particulier que le traitement des données de santé d’une personne est interdit sauf s’il « est nécessaire à la sauvegarde des intérêts vitaux de la personne concernée ou d’une autre personne physique, dans le cas où la personne concernée se trouve dans l’incapacité physique ou juridique de donner son consentement » (art. 9). Deux conditions sont requises pour se passer du consentement de l’individu : ses intérêts vitaux sont menacés, il ne peut donner son consentement pour des raisons soit physiques soit juridiques. Par exemple, une personne âgée est tombée chez elle et ne peut se relever, cette information est transmise à son médecin, à un centre médical... En revanche, les données issues des échanges entre robots communicants sur les risques de santé encourus par la personne ne peuvent être utilisées. Par exemple, dans un futur pas si loin (17) , on peut imaginer la communication entre l’assistant personnel, le pèse personne, le frigo, la bouteille d’eau au bouchon connecté, le tensiomètre, le podomètre qui décèle un comportement alimentaire de la personne et une activité physique la conduisant directement vers un cas d’obésité inquiétant. L’assistant centralisant les informations pourrait-il les transmettre au médecin ? Il n’y aurait là rien de choquant. Mais ces informations ont aussi une valeur commerciale. L’assistant pourrait-il alors les communiquer à un centre diététique ? à une entreprise de produits amincissants ? à Air France, lors de l’achat par la personne d’un billet, qui, au vu des courbes alarmantes d’augmentation du nombre des personnes en surpoids, pourrait être amenée, peut-être pour des raisons de sécurité, sans doute pour des raisons de confort et finalement d’image de marque, à répartir les voyageurs dans ses avions, voire à ajuster ses prix ? L’assistant pourrait-il, toujours dans l’intérêt de l’assisté, prendre le pas en refusant l’accès au frigo et comme ce dernier sera connecté à un supermarché, en commandant des yaourts 0 % et non plus les crèmes dessert ou du Nutella. Ces robots et ces algorithmes peuvent-ils aller contre la volonté de l’individu pour son bien ? La question a déjà été posée : « Un robot d’assistance aux soins pourrait-il interdire à une personne de boire un verre d’alcool ou la forcer à marcher, si elle reste allongée toute la journée, au prétexte que le médecin l’a déconseillé ? » (18) . Le règlement ne le permet pas pour le moment. Mais avant que le droit ne réponde, c’est avant tout à la société d’y réfléchir. C’est une question plus éthique que juridique.

Le secteur des assurances n’est pas en reste, loin s’en faut. Il existe déjà aux Etats-Unis un suivi par objets connectés du comportement à risque de clients. Si ce comportement est avéré par les données remontées, le montant de la police d’assurance est directement réévalué. Finalement, le choix se résumerait à être connecté ou pas, une sorte de radicalité telle qu’elle figure dans Ravage de Barjavel... Mais là encore, un assureur ne pourrait-il pas l’imposer ou, comme les opérateurs de téléphonie mobile en Grande Bretagne qui proposent des réductions de facture si les abonnés acceptent de recevoir des publicités, un assureur ne serait-il pas tenté établir des conditions tarifaires préférentielles sur les individus qu’il peut surveiller et dont il peut « limiter » les risques ? Si cela peut interpeler en terme d’éthique (19) , les risques sur la concurrence et la structure du marché ne sont pas à négliger.

## LE SYNCHRONISME STRUCTUREL DU MARCHÉ

Les algorithmes peuvent affecter le marché en renforçant la position d’opérateurs déjà dominants voire ultra-dominants. Les fameux GAFA sont pointés du doigt et l’amende record de 2,42 milliards d’euros prononcée en juin dernier par la Commission européenne contre Google a marqué les esprits. L’entreprise américaine a été sanctionnée pour avoir favorisé son propre service de comparaison de prix par rapport à ceux de ses concurrents grâce à l’utilisation d’algorithmes de recherche « orientés » (20) . Si l’on se place davantage sur le (simple) marché biface de la publicité digitale (21) , les plateformes de type GAFA, sont des acteurs incontournables en raison des données qu’ils possèdent sur les utilisateurs et qu’ils peuvent proposer aux annonceurs. Les interrogations contenues dans les questionnaires envoyés à Google et Facebook par l’Autorité de la concurrence dans le cadre de son enquête sur l’exploitation de données dans le secteur de la publicité en ligne témoignent de cette préoccupation (22) . Le développement considérable de la publicité programmatique (23) (en display mais aussi de plus en plus en vidéo), c’est-à-dire la vente de publicités de manière automatisée grâce à des algorithmes fondés sur un ciblage de plus en plus précis, participe à ce renforcement. N’est pas en cause le système même de référencement des annonceurs qui peuvent légitimement acheter « le droit d’être mieux placé » dans l’affichage des résultats que leurs concurrents (24) , sous réserve d’être loyal (25) . En revanche, l’effet de réseau qualifie les GAFA de partenaire obligé pour les annonceurs (26) : le maniement de plus en plus fin des données de leurs millions utilisateurs quotidiens, grâce aux algorithmes, les rend maître du secteur.

Si le droit de la concurrence peut peiner à appréhender ce type de comportement qui repose sur l’efficacité d’un algorithme et un effet de réseau bien connu, la réglementation sur la protection des données personnelles et de la vie privée peut venir en relais. L’approche conjointe est appelée depuis longtemps. La violation de la réglementation sur les données personnelles peut ainsi être constitutive d’un abus de position dominante comme l’envisage le Bundeskartellamt. L’[autorité allemande](http://www.bundeskartellamt.de/SharedDocs/Meldung/EN/Pressemitteilungen/2016/02_03_2016_Facebook.html) tend en effet à reprocher à Facebook un abus d’exploitation sur le marché à prix nul pour les internautes consistant en une dégradation de la qualité de la protection de leurs données personnelles telle qu’elle avait pu leur être initialement présentée . Au demeurant, la réglementation en elle même n’est pas dépourvue d’ambivalence. Si certaines dispositions apparaissent pro-concurrentielles, d’autres sèment le doute.

D’un côté, le Règlement de 2016 a imaginé un nouveau droit en faveur d’une stimulation de la concurrence : celui de la portabilité des données (28) . Les données peuvent être réclamées par l’utilisateur aux fins de les transmettre à une autre entreprise. Une transmission directe entre responsables de traitement, qui peuvent être concurrents, est même envisagée. En attendant son entrée en vigueur en 2018, la loi pour une République numérique du 7 octobre 2016 transpose cette portabilité dans le code de la consommation. L’article L. 224-42-1 pose le principe général selon lequel « le consommateur dispose en toutes circonstances d’un droit de récupération de l’ensemble de ses données ». Cette mesure a été présentée comme pro-concurrentielle. Il faudra néanmoins en vérifier la réalité au regard des conditions réglementaires d’application qui restent à définir (29) et du coût que cela engendrera pour les petites entreprises (30) .

Par ailleurs, le renforcement des sanctions mettra un terme ou du moins donnera à réfléchir avant de violer la réglementation sur la collecte et le traitement des données personnelles. Quel est en effet le message retenu par Facebook lorsqu’il est sanctionné d’une amende de 150 000 euros pour des manquements graves à la loi Informatique et Libertés (31) ? Le RGPD augmente sensiblement le montant des amendes encourues de façon à limiter ces fautes lucratives. Ainsi, l’article 83-5 fixe-t-il un maximum de 20 millions d’euros ou pour une entreprise 4 % de son chiffre d’affaires annuel mondial pour les violations aux principes de base d’un traitement, y compris les conditions applicables au consentement, ou encore les droits d’information, de rectification, d’opposition, de portabilité, et d’effacement dont bénéficient les personnes physiques. La loi du 7 octobre 2016 « Pour une République numérique », non applicable à l’affaire précitée Facebook, a quelque peu anticipé l’entrée en vigueur du Règlement européen en fixant dorénavant le plafond de sanctions à 3 millions d’euros.

D’un autre côté, différentes dispositions peuvent conforter les positions des leaders sur les marchés. Le RGPD incite à la concentration par le régime prévu pour les groupes d’entreprises, c’est-à-dire « une entreprise qui exerce le contrôle et les entreprises qu’elle contrôle » (art. 4-19), autrement dit un groupe de sociétés. En effet, il envisage que « les responsables du traitement qui font partie d’un groupe d’entreprises ( ) peuvent avoir un intérêt légitime à transmettre des données à caractère personnel au sein du groupe d’entreprises à des fins administratives internes, y compris le traitement de données à caractère personnel relatives à des clients » (considérant 48). Le profilage étant un « traitement » (art. 4-4), toute société intégrant un groupe bénéficie de la somme de données des clients consentants de celui-ci ! Les données captées par des assistants personnels développés par une filiale peuvent être traitées avec celles issues des plateformes d’une autre filiale du groupe (Amazon, Google). Un mouvement de concentration s’en trouve inévitable (32) , comme par exemple la fusion Facebook/whatsapp, car qui contrôle et amasse les données, contrôle le marché. Toutefois, ces opérations risquent d’échapper au droit de la concurrence car bien qu’atteignant des sommes considérables, les seuils de « contrôlabilité » sont rarement atteints. Si les acteurs hésitent à passer par une opération lourde de rachat, la voie du partenariat est possible comme par exemple le rapprochement d’Adobe et de Microsoft. Néanmoins, le partage de données et leur traitement en dehors du cadre d’un groupe d’entreprises peut soulever des problèmes de conformité au règlement.

Par ailleurs, la lutte apparente contre le tracking peut conduire à renforcer la position de certains opérateurs. La proposition de Règlement e-privacy ne concernerait d’une part que les cookies tiers et non ceux utilisés par les éditeurs sur leurs propres audiences qui peuvent néanmoins servir au profilage publicitaire. Facebook et Google pourront ainsi continuer à déposer leurs cookies internes. D’autre part, le futur Règlement viendrait mettre à mal les alliances de marques médias (33) cherchant à mutualiser leurs audiences, via une plateforme centralisée de data marketing, et donc à contrer l’hégémonie de Google et Facebook qui disposent déjà d’un opt in de l’utilisateur (34) . Le même sentiment domine à l’annonce de la nouvelle version du navigateur Safari d’Apple qui intégrera un système « anti-tracking ». Ce bloqueur de tracking serait fondé sur un système de deep learning analysant les habitudes de navigation de l’internaute et déterminant les cookies qui doivent être bloqués de ceux qui ne doivent pas l’être. Certaines voix s’élèvent pour dénoncer une solution technique qui ne ferait que renforcer la position déjà dominante d’acteurs de la [publicité en ligne comme Google et Facebook](https://www.theverge.com/2017/6/6/15747300/apple-safari-adtracking-cookie-blocker-google-facebook-privacy), sites sur lesquels les internautes se rendent au moins une fois par jour (35) .

Enfin, les adblockers ne sont pas exempts de critiques. Mettant en péril le modèle économique d’Internet reposant sur le financement par la publicité, les modalités de blocage restent aussi trop opaques (36) . La puissance de négociation de certains opérateurs tels que Google ou Amazon associée à leur capacité à pouvoir acheter ces droits, pourraient également renforcer leur position sur le marché de la publicité en ligne. Mais réciproquement, la réponse collective apportée contre les ad-blockers appelle quelques réserves. 18 acteurs du Digital ont adopté « the Coalition for better ads » qui a pour objectif clair de lutter contre l’essor de l’ad-blocking, en éditant des standards. Au rang des participants figurent l’IAB Europe et Etats-Unis, de puissants acteurs de l’industrie digitale que sont Google et Facebook, des annonceurs tout aussi importants comme P1G ou Unilever et des éditeurs comme The Washington Post. Si l’initiative mérite d’être saluée, la présence d’opérateurs puissants risque de soulever quelques questions sur la transparence et l’objectivité de cette normalisation du marché. Ainsi, on peut s’interroger sur la mise à l’écart dans l’étude, de la plateforme Youtube, appartenant à Google, comme sur son lancement début 2018 de son propre Bloqueur de publicités « non acceptables ».

La construction d’une économie de la donnée n’en est qu’aux fondations. On l’aura compris : elle ne pourra se faire sans une approche conjointe avec le droit de la concurrence (37) . Un point d’équilibre dans le sens d’un partage de valeur, doit en effet être trouvé entre protection des données personnelles et capacité d’innovation, entre préservation de la concurrence et diffusion de ces données. Si les premières réflexions se sont centrées sur l’individu, le prochain chantier concerne les données non personnelles des entreprises. De plus en plus souvent, les PME, en particulier industrielles, utilisent des machines connectées produisant des données qui sont captées et stockées chez des prestataires de services (cloud...). Des questions de portabilité, d’interopérabilité, de prospection commerciale se posent tout autant afin de limiter les dépendances et renforcer la concurrence (38) .

(1)

SWD(2017) 2 final.

(2)

OCDE, Données massives : adapter la politique de la concurrence à l’ère du numérique, 21 novembre 2016, DAF/COMP/(2016)14.

(3)

CNIL, La publicité ciblée, 2009.

(4)

De Filippi P, Gouvernance algorithmique : vie privée et autonomie individuelle à l’ère des Big Data :in Open Data et Big Data (ss. dir. D. Bourcier et P. Di Filippi), Mare & marin, 2016, p. 99.

(5)

Orwell, G. 1984.

(6)

M. Atwood, La servante écarlate.

(7)

CEP, Avis Big data et publicité, 2016.

(8)

Spinoza B., Lettre à Schuller, in Œuvres, Paris, éd. Garnier-Flammarion, 1955, tome 4, pp. 30.

(9)

L. Arcelin, Internet des objet et régulation, RLC nº 2016/55, p. 51.

(10)

L. Arcelin, Droit de la concurrence et numérique : in Le droit français de la concurrence, 30 ans après. L’ordonnance du 1er décembre 1986 : rétrospectives et perspectives, Lextenso, 2017.

(12)

Consid. nº 2.

(13)

Mayer J., Mutchler P. and Mitchell J.-C., Evaluating the privacy properties of telephone metadata : PNAS, May 17, 2016.

(14)

Communication - Les plateformes en ligne et le marché unique numérique - Perspectives et défis pour l’Europe, 25 mai 2016, SWD (2016) 172 final, p. 6.

(15)

De Filippi P., Gouvernance alorithmique : vie privée et autonomie individuelle à l’ère des Big Data : in Open Data et Big Data (ss. dir. D. Bourcier et P. Di Filippi), Mare & marin, 2016, p. 99.

(16)

Dans son rôle pédagogique, la CNIL distingue deux situations. Soit l’éditeur du site dépose lui-même des cookies, ou permet le dépôt de cookies tiers, afin de traiter des données uniquement pour son compte. Cela peut viser le cas de sites de commerce en ligne sur lesquels des régies publicitaires déposent des cookies aux fins de retargeting (reciblage publictaire) tendant à adresser un message publicitaire aux profils ayant visité au moins une fois le site de l’annonceur pour lequel la publicité est adressée. Dans cette hypothèse, l’éditeur qui fixe les moyens et finalités du traitement est le responsable de celui-ci et doit donc assumer les obligations afférentes à ce statut. S’il s’agit d’un cookie tiers, le déposant est qualifié de sous-traitant qui traite des données à caractère personnel pour le compte et selon les instructions de l’éditeur. Soit, deuxième cas de figure, les données collectées par les cookies tiers sont exploitées, non pas par l’éditeur du site sur lequel ils sont déposés, mais par leur émetteur. Il peut s’agir d’une régie publicitaire suivant les internautes sur différents sites afin de dresser leur profil et de les regrouper dabs des segments de marché qui sont utilisés ou vendus à d’autres tiers. C’est encore le cas des plateformes d’enchères en temps réel vendant aux annonceurs le droit d’afficher une publicité sur une page web. Dans cette hypothèse là, ce n’est pas l’éditeur du site qui définit les modalités et finalités d’exploitation des données mais des tiers « directs » déposant les cookies. C’est donc ce dernier qui est considéré comme le responsable du traitement et l’éditeur du site qui est qualifié de sous-traitant.

(17)

Les produits de la gamme Withings rendent ce futur palpable...

(18)

Nevejans N., in Rapport au nom de L’Office parlementaire d’évaluation des choix scientifiques et technologiques sur Les Robots et la loi, 2016, p. 65.

(19)

Voir Arcelin L. et Nicolle Ch., Je sais ce que tu as fait, je sais qui tu es... : Convergences Droit et numériques, Bordeaux, 2017.

(20)

Comm. UE, décision du 27 juin 2017, communiqué IP/17/1784.

(21)

B. Julien, Intervention lors du séminaire Philippe Nasse du 5 mai 2011, « Le fonctionnement concurrentiel du marché de la publicité » : RLC nº 28/2011, p. 140.

(22)

ADLC, Avis 16-SOA-02, 23 mai 2016 relative à une saisine d’office pour avis portant sur l’exploitation des données dans le secteur de la publicité en ligne. - Questionnaire du 11 juillet 2017.

(23)

L’achat programmatique représente plus de la moitié de l’ensemble du display (53 %, soit 639 millions d’euros) : https://www.blogdumoderateur.com/observatoire-e-pub-17/

(24)

Choné-Grimaldi A.-S.., « Publicité en ligne et pratiques anticoncurrentielles », in Communication numérique, un droit, des droits (ss. dir. Teyssié B.), éd. Panthéon Assas, 2012, p. 244.

(25)

C. consom. art. L. 111-7 II.

(26)

Comme pour les internautes, qui bien que préférant une plateforme peuvent toutefois devenir tributaire d’une autre en raison des effets de réseau.

(28)

L’article 20-1 dispose en effet que « les personnes concernées ont le droit de recevoir les données à caractère personnel les concernant qu’elles ont fournies à un responsable du traitement, dans un format structuré, couramment utilisé et lisible par machine, et ont le droit de transmettre ces données à un autre responsable du traitement sans que le responsable du traitement auquel les données à caractère personnel ont été communiquées y fasse obstacle, lorsque : a) le traitement est fondé sur le consentement en application de l’article 6, paragraphe 1, point a), ou de l’article 9, paragraphe 2, point a), ou sur un contrat en application de l’article 6, paragraphe 1, point b); et b) le traitement est effectué à l’aide de procédés automatisés ».

(29)

Le G29 a une approche assez large de ce droit. Voir Guidelines on the right to data portability, 13 december 2016.

(30)

OCDE, Données massives : adapter la politique de la concurrence à l’ère du numérique, 21 novembre 2016, DAF/COMP (2016)14.

(31)

CNIL, dél. nº SAN - 2017-006, 27 avril 2017 prononçant une sanction pécuniaire à l’encontre des sociétés Facebook INC. et Facebook Ireland.

(32)

OCDE, Données massives : adapter la politique de la concurrence à l’ère du numérique, 21 novembre 2016, DAF/COMP/(2016)14, pt. 2.

(33)

Par exemple, l’Alliance Gravity, associant une vingtaine de marques Médias telles que Lagardère, Condé Nast, Next radio, Sud-Ouest, L’équipe ou Marie-Claire.

(34)

La conformité au droit des ententes pourrait être discutée, comme outre Atlantique (Delcambre A., La presse américaine face à Google et Facebook. Une alliance regroupant 2 000 titres demande un assouplissement de la législation antitrust : Le Monde 12 juillet 2017).

(36)

ok-investigation/#more-2308.

Cxense, White paper, Ad Blockers : How can publishers come out on top ?, oct. 2015. Voir Conseil de l’Ethique publicitaire, Avis « Blocages publicitaires : l’impasse », 14 sept. 2015.

(37)

Vestager M., Algorithms and competition, Bundeskartellamt, 18th Conference on Competition, Berlin, 18 March 2017. - ADLC et Bundeskartellamt, Droit de la concurrence et données, mai 2016. Lenoir N., Le droit de la concurrence confronté à l’économie du Big Data : AJCA2/2016, p. 66.

(38)

Voir CNNum., avis nº 2017-2 relatif à la libre circulation des données en Europe, 28 avril 2017.

Sort:  
Loading...

Coin Marketplace

STEEM 0.18
TRX 0.16
JST 0.030
BTC 62255.52
ETH 2449.42
USDT 1.00
SBD 2.63