Le Loi sur les services numériques est là. Le temps est désormais compté pour les géants de la tech pour se mettre en conformité avec les nouvelles règles de l’UE. Ce nouveau règlement ambitionne de poser les bases d’une nouvelle ère réglementaire en responsabilisant davantage les plateformes et places de marché, de manière proportionnée à leur taille et à leur impact sur le marché et sur nos sociétés.
“Tout ce qui est interdit hors ligne doit l’être en ligne», pour reprendre l’expression martelée par le commissaire européen au Marché intérieur, Thierry Breton.
Son inscription au Journal officiel de l’UE intervient moins de deux ans après la proposition de la Commission européenne en décembre 2020 — une prouesse pour Bruxelles au regard de l’envergure du texte. La Commission européenne en avait également profité pour soumettre son projet de Loi sur les marchés numériques (DMA), le versant antitrust du nouveau cadre réglementaire sur lequel Bruxelles a travaillé et mis beaucoup pour améliorer le marché unique européen et protéger les consommateurs. Mais que faut-il retenir de cette nouvelle législative ? L’Usine Digitale fait le point.
Contenus et produits illicites
Les plateformes en ligne devront désormais l’obligation de mettre en place un mécanisme de signalement des contenus illicites et devront être en mesure de procéder rapidement à leur retrait — sans pour autant être soumis à une “obligation générale de surveillance ou de recherche active des faits”. Ces signaux pourraient en partie provenir d’un “signaleur de confiance», un statut qui pourra être attribué à des associations de lutte contre le racisme ou l’homophobie par exemple, sous certaines conditions.
Toutes les plateformes dans le champ du DSA désigneront un point de contact unique ou, si elles sont établies hors UE, un représentant légal dans la perspective de coopération avec les autorités nationales lorsqu’une injonction de retrait est émise. Le DSA prévoit également l’obligation d’établir un système interne de traitement des réclamations qui permettra aux utilisateurs dont le compte sur les réseaux sociaux s’est fait suspendre, par exemple, de contester la décision.
Les marketplaces, comme Amazon, seront par ailleurs soumises à un plus grand devoir de vigilance vis-à-vis des vendeurs qui utilisent leur plateforme en s’assurant de leur fiabilité.
Plus de transparence, moins de manipulation
Le DSA prévoit également d’interdire les interfaces truquées (“motifs sombres”) qui sont conçus pour manipuler l’utilisateur au moment de faire un choix — souscrire ou non à une offre, choisir tel ou tel paramétré — ou de mieux encadrer les publicités en ligne, que l’utilisateur devra pouvoir effectivement identifier comme tel.
La publicité ciblée, quant à elle, ne pourra pas reposer sur des catégories particulières de données jugées sensibles, telles que l’orientation sexuelle ou les convictions religieuses, et sera complètement interdite si le fournisseur de service a “connaissance avec une certitude raisonnable que le destinataire du service est un mineur”.
Les plateformes compétentes par ailleurs expliquent “dans un langage simple et compréhensible” dans leurs conditions générales comment elles personnalisent le contenu pour leurs utilisateurs via leurs systèmes de recommandation.
Très grandes plateformes
Les plus grandes entreprises seront soumises à un régime plus strict de règles, au motif que leur taille et leur importance sur le marché font peser un risque plus grand aux utilisateurs lorsqu’il s’agit de contenus illicites ou préjudiciables. Ces très grandes plateformes pourront ainsi ouvrir leurs algorithmes et leurs systèmes informatiques aux audits et auront l’obligation supplémentaire de proposer un système de recommandation alternatif, qui ne se base pas sur le profilage.
Elles devront par ailleurs permettre l’accès aux données clés de leurs interfaces aux chercheurs agréés qui étudient l’évolution de ces risques dits “systémiques”. Cette catégorie de plateformes sera tenue d’anticiper et de prévenir ces derniers. Tous les ans, elles devront passer en revue ces risques “systémiques“puis rendre compte des mesures mises en place pour y nuire.
Jusqu’à 6 % du chiffre d’affaires mondial
En cas de manquement à ces obligations, Bruxelles pourra infliger des amendes aux “très grandes plateformes” et “très grands moteurs de recherche», allant jusqu’à 6 % de leur chiffre d’affaires mondial. Si les GAFAM ne sont jamais nommés directement, nul doute qu’ils apparaîtront sur la liste que Bruxelles doit encore établir. Les entreprises qui y devront également s’acquitter d’une “redevance de surveillance annuelle”, dont le montant ne pourra pas dépasser 0,05 % de leur chiffre d’affaires annuel mondial et qui est censé permettre aux services de la Commission de mener à bien leur mission.
“L’introduction de nouvelles obligations pour les plateformes et de nouveaux droits pour les utilisateurs ne servirait à rien s’ils ne sont pas correctement appliqués», avait reconnu Thierry Breton en juillet dernier, alors que d’aucuns s’inquiétaient des moyens humains et financiers à la disposition de la Commission européenne pour faire correctement son travail.
Pour les plateformes qui dénombrent moins de 45 millions d’utilisateurs actifs par mois, ce sont les autorités nationales qui auront la responsabilité de veiller à la bonne application des nouvelles règles. En France, c’est l’Arcom qui endossera ce rôle. On peut noter que les plus petites entreprises bénéficieront d’une série d’exemptions en matière de transparence, de traçabilité, etc.
Si le présent règlement entre désormais en vigueur le 16 novembre prochain, 20 jours après sa publication dans le Journal officiel de l’UE, il ne sera applicable que 15 mois après cette date, soit en février 2024.
Sélectionné pour vous