DSA : quelles nouvelles règles ?

 

 

Par Anne Cousin, le 30 mai 2022

 

Article publié dans Les Echos Solutions

 

 

Fin avril 2022, les institutions européennes ont finalisé leur accord sur un nouveau règlement qui remplacera la directive e-commerce de 2000.

Dès son entrée en vigueur probablement début 2023, le Digital Services Act s’appliquera aux places de marché en ligne, réseaux sociaux, boutiques d’applis, comparateurs de prix et moteurs de recherche même non établis dans l’Union européenne mais qui y disposent d’un nombre significatif d’utilisateurs.

Quels en sont les apports ?

 

Principe de responsabilité « allegée »

 

Le DSA réaffirme que les intermédiaires du numérique n’ont aucune obligation de surveillance des contenus. Ils n’engagent pas leur responsabilité s’ils ne sont pas à l’origine des contenus illicites et s’ils les retirent rapidement lorsqu’ils en ont connaissance. Rien de nouveau sur cette question d’une importance considérable pour assurer les libertés d’expression et d’entreprendre sur internet. Le DSA confirme que cette exemption de responsabilité s’applique même si les intermédiaires effectuent des recherches permettant de détecter en amont les contenus illicites.

Deux questions principales n’ont pas reçu de réponse dans le nouveau texte :

  • la définition des « contenu illicite ». Il n’existe toujours pas de définition uniforme de cette notion dans toute l’Europe ;
  • les délais de retrait des contenus illicites. Ce sont les lois nationales et la jurisprudence de chaque Etat membre qui devront se prononcer sur cette question essentielle.

 

Les vraies avancées du DSA

 

Là où le DSA innove vraiment c’est en renforçant très nettement les obligations des intermédiaires. Une véritable action de prévention est attendue de leur part. Pour cela, le DSA distingue 4 cercles d’obligations de plus en plus étendues, adaptées à leur activité et leur taille. Certaines les concernent tous, d’autres ne s’appliquent qu’aux hébergeurs, d’autres encore se rapportent aux seules plateformes et les dernières ne visent que les très grandes plateformes (plus de 45 millions d’utilisateurs actifs par mois dans l’UE, soit 10% de sa population actuelle).

Tous les intermédiaires devront établir un rapport annuel sur les notifications de contenus illicites reçues et leurs activités de modération.

Les hébergeurs devront en outre faciliter leur notification et publier leurs décisions de retrait dans une base de données publique.

Les plateformes devront aussi suspendre les comptes utilisateurs fournissant fréquemment des contenus illicites ou soumettant fréquemment des notifications infondées.

Elles devront publier leur politique de lutte contre les utilisations abusives et traiter en priorité les notifications des « signaleurs de confiance ». Les plateformes devront obtenir des professionnels qui les utilisent davantage d’informations sur eux-mêmes et leurs produits. La transparence de la publicité devra être renforcée, l’internaute devra notamment pouvoir identifier l’annonceur derrière telle ou telle publicité.

Les très grandes plateformes réaliseront une fois par an une analyse des risques systémiques induits par leur utilisation (« fake news », faux profils…) et devront atténuer ces risques en adaptant leur politique de modération.

Elles se soumettront une fois par an à un audit indépendant en donnant à l’auditeur un accès effectif aux données utiles. Leur système de recommandation qui souvent privilégie les contenus clivants devra être clarifié et les utilisateurs devront pouvoir modifier les paramètres. En cas de non-respect de ces obligations, les très grandes plateformes pourront être sanctionnées par les instances européennes (une amende allant jusqu’à 6% du CA).

C’est donc assurément dans l’accroissement et le contrôle des nouvelles obligations mises à la charge des intermédiaires que le DSA innove le plus.