Le Tribunal administratif régional du Latium (quatrième section) a accepté - par un arrêt - le recours présenté par Meta Platforms Ireland Ltd (Facebook) contre l'Autorité des communications, qui demandait l'annulation de la résolution no. 422/22/CONS du 14 décembre 2022, adoptée par l'AGCOM à l'issue de la procédure initiée avec l'avis de contestation n°. 6/22/DSDI – PROC. N° 8/FDG, avec lequel a été constatée une « prétendue violation de l'article 9 du décret législatif n° ». 87 de 2018, converti avec modifications par la loi du 9 août 2018, n. 96 » (décret de dignité, ndlr) et, en vertu duquel une amende administrative de 750.000,00 XNUMX euros a été infligée.

Ci-dessous le texte de la phrase : « 1. La société appelante avec la résolution no. La décision n° 422/22/CONS du 14 décembre 2022 a été sanctionnée (pour la somme de 750.000 XNUMX euros) par l'Autorité défenderesse pour le violation de l'interdiction de publicité sur les jeux de hasard prévu par l'art. 9, paragraphe 1, du décret législatif du 12 juillet 2018, n. 87 converti avec la loi du 9 août 2018, n. 96 (Décret Dignité), en raison de la présence, constatée aux dates des 2, 3, 12 et 23 mai 2022, de contenus (vidéos et images, hyperliens etc.)"sponsorisé moyennant des frais» sur la plateforme Facebook adaptée à la promotion et à la publicité des activités de jeux et de paris en ligne avec des gains en espèces.

2. Par le présent appel, l'appelant a contesté l'ordonnance d'injonction en articulant les griefs suivants :

– VIOLATION ET FAUSSE APPLICATION DE L’ART. 9 DU DÉCRET DE DIGNITÉ, DES ARTICLES. 14 ET 15 DE LA DIRECTIVE ET ARTICLES SUR LE COMMERCE ÉLECTRONIQUE. 16 ET 17 DU DÉCRET E-COMMERCE.

Selon le requérant, l'évaluation de la responsabilité par l'Autorité repose sur la classification incorrecte, dans la présente affaire, de Meta Platforms Ireland comme fournisseur d'hébergement actif en ce qui concerne les contenus sponsorisés générés par les utilisateurs, alors que, vice versa, le requérant ne manipule pas ces contenus et est donc un fournisseur d'hébergementpassif.

En tout état de cause, aucune forme de responsabilité ne pourrait être engagée pour le recourant, celui-ci n'ayant pas connaissance du fait que les publicités contestées violaient l'art. 9 du décret sur la dignité.

– VIOLATION ET FAUSSE APPLICATION DE L’ART. 15 DE LA DIRECTIVE E-COMMERCE ET ART. 17 DU DÉCRET E-COMMERCE. VIOLATION DU PRINCIPE DE PROPORTIONNALITÉ. 

L'Autorité aurait introduit une obligation pour le requérant de surveiller préventivement le service Facebook afin d'empêcher les utilisateurs de violer l'art. 9 du décret sur la dignité, en violation des dispositions de l'art. 15 de la directive E-Commerce.

– VIOLATION ET FAUSSE APPLICATION DE L’ART. 3 DE LN 241 DE 1990. EXCÉDENT DE PUISSANCE DANS LA FIGURE SYMPTOMATIQUE DE LA VIOLATION D'UNE CIRCULAIRE ÉMISE PAR LA MÊME AUTORITÉ.

L'ordonnance d'injonction manquerait de motivation adéquate dans la mesure où l'Autorité n'a pas expliqué les conditions factuelles et les raisons juridiques qui l'ont amenée à ne pas respecter ses propres lignes directrices du décret sur la dignité.

– VIOLATION ET FAUSSE APPLICATION DES ARTICLES. 8, 8-BIS ET 11 DE LN 689 DE 1981. VIOLATION DES PRINCIPES DE PROPORTIONNALITÉ, DE RAISONNABLE ET DE CERTITUDE DES SANCTIONS ADMINISTRATIVES. 

L'Autorité aurait calculé la sanction par erreur en appliquant le cumul matériel au lieu du cumul légal et en omettant de considérer les critères de calcul des sanctions prévus à l'art. 11 de la loi du 24 novembre 1981, n. 689.

3. L'Autorité a été créée pour refuser d'accepter l'appel.

4. Avec l'ordonnance no. 1946 du 6 avril 2023, le Conseil a rejeté la demande conservatoire, estimant que l'exigence de periculum in mora.

5. Lors de l'audience du 17 janvier 2024, le recours a été jugé.

6. Il convient tout d’abord de commencer par une brève reconstitution du cadre réglementaire concernant le régime de responsabilité fournisseurs d'hébergement en ce qui concerne les contenus placés par des tiers sur Internet via leurs plateformes.

À cet égard, tout d'abord, les dispositions de l'art. 14, paragraphe 1, de la directive sur le commerce électronique (directive 2000/31/CE), qui a introduit une exonération de responsabilité - en ce qui concerne les contenus stockés par des tiers sur le réseau - pour les fournisseurs de hébergement qui n'ont pas connaissance des activités illicites qui se produisent à travers leurs services et à condition que, après en avoir pris connaissance, ils agissent immédiatement pour supprimer le contenu illicite : "1. Les États membres veillent à ce que, dans le cadre de la fourniture d'un service de la société de l'information consistant en le stockage d'informations fournies par un destinataire du service, le prestataire ne soit pas responsable des informations stockées à la demande d'un destinataire du service, à condition que ce prêteur :

a) n'a pas réellement conscience du fait que l'activité ou l'information est illégale et, en ce qui concerne les actions en réparation, n'a pas connaissance de faits ou de circonstances qui rendent manifeste l'illégalité de l'activité ou de l'information, ou 

b) dès qu'il a connaissance de tels faits, il agit immédiatement pour supprimer les informations ou en désactiver l'accès" .

L'art suivant. 15 complète le règlement d'exonération en excluant que je fournisseurs sont soumis à une obligation générale de surveillance des informations transmises ou stockées par les destinataires des services proposés : "Dans le cadre de la fourniture de services visés aux articles 12, 13 et 14, les États membres n'imposent pas aux prestataires une obligation générale de surveiller les informations qu'ils transmettent ou stockent, ni une obligation générale de rechercher activement des faits ou des circonstances indiquant la présence d'activités illégales." .

Une orientation jurisprudentielle consolidée (tant européenne que nationale), dans l'interprétation de ces règles, a limité le champ d'application de l'exonération en question en introduisant la distinction entre le chiffre defournisseur d'hébergement actif (responsable des violations commises par les utilisateurs qui utilisent les services) et celui defournisseur d'hébergement passif (qui bénéficie toutefois d’une exonération de responsabilité).

Il a notamment été considéré que l'immunité accordée aux gestionnaires de plateformes hébergementde la directive ne peut être valable que dans le cas où lefournisseur d'hébergement reste neutre à l'égard des contenus placés sur le réseau par le tiers, pouvant vice versa être appelé à répondre si une certaine forme de participation à la gestion de ceux-ci est perceptible, le prestataire exerçant une activité qui va au-delà d'une simple technique, automatique et passif : "La jurisprudence de l’UE distingue deux figures d’hébergeurs : 

a) celui de l'hébergeur "passif", qui exerce une activité de fourniture de services de nature purement technique et automatique, avec pour conséquence que lesdits hébergeurs ne connaissent ni ne contrôlent les informations transmises ou stockées par les personnes à qui ils fournissent leurs services; 

b) celle d'hébergeur « actif », qui se produit lorsque, entre autres, l'activité ne se limite pas à ce qui est indiqué ci-dessus mais concerne également le contenu du service fourni (voir Cour de justice de l'UE, 7 août 2018, cit. ainsi qu'au niveau national, Cassation Civile, Section I, n. 7708/2019)» (cf. Conseil d'État, Section VI, 13/09/2022, n. 7949).

Au chiffre defournisseur d'hébergement actif aujourd'hui fait référence au considérant no. 18 du règlement UE 2022/2065 (règlement sur les services numériques, applicable à partir du 17 février 2024) : "Les exonérations de responsabilité établies dans le présent règlement ne devraient pas s'appliquer lorsque, au lieu de se limiter à une prestation neutre de services au moyen d'un traitement purement technique et automatique des informations fournies par le destinataire du service, le prestataire de services intermédiaire joue un rôle actif dans fournir au destinataire la connaissance ou le contrôle de ces informations ».

Par ailleurs, le nouveau règlement sur les services numériques, en réitérant l'exonération de responsabilité des hébergementpour les contenus « mis en ligne » par des tiers (art. 6), il contient une disposition (art. 7, intitulé «Enquêtes volontaires promues de sa propre initiative et dans le respect des obligations réglementaires») qui, innovant par rapport au cadre réglementaire précédent, étend l'exonération de responsabilité au cas où je fournisseurs mener de leur propre initiative - comme dans le cas de Meta Platforms Ireland - des activités visant à identifier et supprimer les contenus illégaux stockés par les utilisateurs : "Les prestataires de services intermédiaires ne peuvent pas être considérés comme inéligibles à l'exonération de responsabilité prévue aux articles 3, 4 et 5 du seul fait qu'ils mènent des enquêtes volontaires ou d'autres activités de leur propre initiative visant à détecter, identifier et supprimer des contenus illégaux ou à en empêcher l'accès. , ou de prendre les mesures nécessaires pour se conformer aux exigences du droit de l'Union, y compris celles établies dans le présent règlement ».

La règle précise que l'adoption de tels systèmes de contrôle ne suffit pas en soi à rendre le de voiture. un "hébergement actif » (responsable des contenus eux-mêmes) et de déterminer l’inapplicabilité de l’exonération de responsabilité de ces sujets pour les contenus stockés.

L'objectif poursuivi est d'empêcher le de voiture.est considérée comme active pour le seul fait de mettre en œuvre de sa propre initiative des formes de contrôle des contenus stockés par les utilisateurs et qui peut, par conséquent, être incitée à n'adopter aucun système visant à empêcher l'entrée de contenus illégaux dans le réseau.

7. Il convient également de préciser que, comme l'a déjà déclaré notre Cour, les principes généraux qui régissent le régime de responsabilité du fournisseurs, comme le montre la réglementation sur le commerce électronique, sont également applicables dans les cas dans lesquels l'opérateur est tenu responsable de la violation de l'interdiction de publicité pour les jeux ou les paris avec gains en espèces visée à l'art. 9 du décret sur la dignité (voir TAR Rome section III, 28/10/2021, n. 11036 ; TAR Rome, section IV-bis, 08/09/2023, n. 13676).

En particulier, en référence à l'art. 14 de la directive, il a été observé que «ces dispositions – bien que la directive ne s’applique pas aux jeux de hasard [art. 1, paragraphe 5, de la directive] – constituent l'expression de principes généraux également applicables au cas spécifique, car ils décrivent le modèle de responsabilité des différents opérateurs agissant dans la société de l'information actuellement en vigueur au niveau européen et national ».

8. A la lumière de ces prémisses, aux fins de l'examen du premier moyen d'appel, il convient de vérifier si le système de contrôle préventif des publicités adopté par Meta Platforms Ireland est suffisant pour lui conférer le rôle de fournisseur d'hébergement actif, l'excluant du champ d'application de l'exonération visée à l'art. 14 de la directive sur le commerce électronique.

Il s'agit donc de "examiner si le rôle joué par ce gestionnaire est neutre, c'est-à-dire si son comportement est purement technique, automatique et passif, ce qui implique un manque de connaissance ou de contrôle des contenus qu'il stocke, ou si, au contraire, ledit gestionnaire exerce une activité active rôle approprié pour lui donner la connaissance ou le contrôle des contenus susmentionnés» (cf. Grande Chambre de la Cour de Justice de l'UE, 22/06/2021, n.682)

À cet effet, il convient de noter qu'il est constant que le système de contrôle dont s'est dotée la société requérante pour déterminer si l'annonce contient un contenu illicite est principalement de nature automatisée et que la vérification "manuelle" par une personne physique a lieu dans des hypothèses résiduelles et pour un nombre de cas très limité (si on le compare à l'énorme quantité de publicités placées sur la plateforme).

Dans la même résolution contestée, il est souligné que «L'annonce n'est pas immédiate mais n'est rendue publique qu'au bout d'au moins 24 heures, le temps nécessaire à Meta pour effectuer un contrôle sur celle-ci afin de s'assurer qu'elle est conforme à la réglementation publicitaire de la plateforme... Le système d'analyse des annonces s'appuie sur une technologie automatisée. qui applique les politiques publicitaires aux millions d'annonces publiées sur la plateforme. Par ailleurs, le contrôle est également prévu par des personnes physiques, tant chargées de l'analyse visant à améliorer les systèmes automatisés précités, que directement chargées, dans certains cas, de l'analyse manuelle des annonces... Sur la base des résultats de l'analyse , l'annonce est rejetée ou autorisée à la publication ».

Par ailleurs, comme le précise le requérant, c'est le ,software de contrôle automatisé pouvant soumettre une seule annonce à l’intervention manuelle d’une personne physique : «Dans un nombre limité de cas, l'examen automatisé peut entraîner la soumission de la fiche à un examen humain, soit à des fins d'examen manuel, soit dans le but d'améliorer et de former le système automatisé. ».

S'agissant du mode de surveillance préventive mis en place par le recourant, il faut exclure que, dans l'affaire en cause, cette activité puisse être qualifiée en termes de fournisseur d'hébergement J'active la partie appelante à condition que :

– le système de contrôle des publicités n'a impliqué, dans ce cas, aucune manipulation des données stockées ;

– la seule manipulation pouvant résulter de l'activation de l'outil de contrôle automatique adopté par le requérant est le "rejet" de l'insertion par le système, de sorte que tout rôle actif joué par le requérant vise à empêcher - et non à faciliter, comme dans le cas defournisseur d'hébergement actif – l’utilisation des contenus par la généralité des utilisateurs.

Par ailleurs, cette Cour, dans la phrase no. 10036/2021, a déjà jugé que lorsque l'activité du gestionnaire de services est de nature automatisée, n'impliquant pas la manipulation de messages, le "rôle actif" sur lequel repose la responsabilité du gestionnaire manque : "il est incontestable que l'activité en question a un caractère automatisé, n'impliquant pas la manipulation de messages, de sorte que dans ce cas, le "rôle actif" susmentionné sur lequel repose la responsabilité du gestionnaire lui-même manque. Le service en question ... prévoit en effet que les annonces sont créées de manière totalement indépendante par l'annonceur, qui détermine leur contenu par un processus automatisé ... ; l'annonce est ainsi soumise à l'examen d'un logiciel qui, avec les méthodes automatiques mentionnées, vérifie sa conformité aux conditions contractuelles" et que « permet de « bloquer », toujours grâce à des techniques automatisées, les messages contenant des contenus illégaux ».

9. Par ailleurs, il convient de noter que, comme mentionné ci-dessus, l'art. 7 du nouveau règlement sur les services numériques, en vertu duquel «Les prestataires de services intermédiaires ne peuvent pas être considérés comme inéligibles à l'exonération de responsabilité… simplement parce qu'ils mènent des enquêtes volontaires ou d'autres activités de leur propre initiative visant à détecter, identifier et supprimer des contenus illégaux ou à en désactiver l'accès. ».

La disposition étend l'exonération de responsabilité à l'hypothèse dans laquelle les prestataires de services mènent de leur propre initiative des activités visant à intercepter et à supprimer les contenus illégaux stockés par les utilisateurs, comme c'est le cas du requérant aujourd'hui.

La règle - excluant la possibilité que l'adoption de mesures visant à détecter des activités illégales puisse être considérée comme le symptôme d'un rôle actif à l'égard des contenus mis en ligne par les utilisateurs - vise à empêcher fournisseurs peuvent être exposés au risque d'être exclus de l'application de la clause d'exonération de responsabilité du seul fait qu'ils se sont dotés d'un système de contrôle des contenus « mis en ligne » par les utilisateurs du service.

10. Il convient d’ajouter qu’en l’espèce, une activité du de voiture. consistant en un simple traitement technique et automatisé des informations fournies par le destinataire du service, il doit être exclu que la recourante ait effectivement eu connaissance des contenus illégaux stockés par les utilisateurs sur la plateforme et que, par conséquent, elle ait eu la possibilité de prendre des mesures utiles pour supprimer les contenus susmentionnés.

L'Autorité n'a pas non plus démontré que le gestionnaire de la plateforme était au courant du comportement illicite de l'utilisateur du service..

À cette fin, il aurait dû (joindre et) démontrer que, dans le cas d'espèce, il s'était produit un de ces cas limités où, à la suite du contrôle automatique effectué par le ,software une vérification a lieu par une personne physique (appeléeexamen humain"), étant donné que seul le contact d'une ressource humaine avec le contenu interdit peut impliquer la condition de connaissance effective propre à justifier une accusation contre la de voiture. par complicité dans la commission du délit d'autrui.

11. Précisons enfin que l'exigence de connaissances ne peut être considérée comme intégrée, comme le prétend l'Autorité défenderesse (cf. page 18 de la résolution), du seul fait que les normes publicitaires adoptées par l'entreprise prévoient le "sous réserve d'une autorisation écrite» pour avoir publié des publicités faisant la promotion des jeux de hasard.

En fait, il n'est pas controversé, conformément à l'art. 64, alinéa 2, cpa, que, dans l'affaire en cause, les utilisateurs qui ont placé les annonces contestées n'avaient pas reçu l'autorisation écrite requise par les normes de publicité (comme l'a déduit l'appelant aux pages 2 et 3 du mémoire déposé ex art. 73 cpa).

Il s'ensuit que la base factuelle - la délivrance d'une telle autorisation par le requérant - utilisée par l'Autorité pour conclure que le requérant avait connaissance du contenu sponsorisé fait défaut.

12. En conclusion, la Commission estime que :

- le mécanisme de contrôle automatisé décrit ci-dessus n'est pas suffisant pour qualifier le requérant de fournisseur d'hébergement actif;

- la connaissance effective de la part du requérant de l'activité illicite exercée par les utilisateurs n'a pas été démontrée (absence de preuve que les mesures « proactives » adoptées par le gestionnaire de services impliquaient une connaissance des activités illicites);

- seulement avec la notification de la notification de la violation de l'art. 9 du décret sur la dignité (qui a initié la procédure aboutissant à l'imposition de la sanction défavorable), le requérant a pris connaissance de l'existence des publicités illicites et a par conséquent pris des mesures pour supprimer le "Post» objet du litige.

13. Pour les raisons soulignées, le recours doit être accepté, avec absorption des autres réclamations proposées.

14. La particularité des questions juridiques en cause justifie l'indemnisation intégrale des frais de litige.

PQM

Le Tribunal Administratif Régional du Latium (Quatrième Section), statuant définitivement sur le recours, comme dans l'épigraphe proposée, l'accepte dans les termes fixés dans la motivation et, par conséquent, annule la résolution de l'Autorité pour les Garanties des Communications n° 422. 22/14/CONS du 2022 décembre XNUMX".

Article précédentSénat, Croatti (M5S) : « Le gouvernement répond aux souhaits des clubs de football qui demandent la suppression de l'interdiction de la publicité pour les paris »
prochain articleParis tennis, Open d'Australie : Sinner, un nouvel exploit s'impose. Djokovic est favori à 1,48, Jannik rêve à 2,65 sur Snai