O mecanismo de "notificação e ação" (N&A) está no cerne do enquadramento da UE para a moderação de conteúdos ao abrigo da Diretiva sobre o Comércio Eletrónico e, mais recentemente, da Lei dos Serviços Digitais (DSA). Estes mecanismos exigem que as plataformas online e os prestadores de serviços de alojamento — conhecidos coletivamente como Serviços da Sociedade da Informação (SSI) — removam ou desabilitem o acesso a conteúdos ilegais assim que tenham sido devidamente notificados.
Embora a base legal para os sistemas de Notificação e Ação (N&A) esteja harmonizada a nível da UE, os tribunais nacionais têm desempenhado um papel central na interpretação de como estas obrigações se aplicam na prática. Casos-chave dos Estados-Membros revelam padrões divergentes sobre o que constitui uma notificação válida, a rapidez com que as plataformas devem agir e quando surge a responsabilidade do intermediário.
O Quadro Legal: Da Diretiva do Comércio Eletrónico ao DSA
Nos termos do Artigo 14.º da Diretiva sobre o Comércio Eletrónico (2000/31/CE), os prestadores de serviços de alojamento não são responsáveis por conteúdos ilegais armazenados nos seus serviços. desde que não tenham conhecimento efetivo da sua ilegalidade ou, ao obter tal conhecimento, atuar “expeditamente” para o remover.
O DSA (Regulamento (UE) 2022/2065) desenvolve-se com base nesta premissa, introduzindo:
- Um sistema normalizado de notificação e ação para todos os prestadores de serviços de alojamento (Artigo 16.º),
- Requisitos para ferramentas de notificação acessíveis e fáceis de usar,
- Obrigações de fundamentação aquando da remoção ou manutenção de conteúdos (Artigo 17.º),
- Vias de recurso e reclamações (Art. 20.º).
Os tribunais nacionais já estão a moldar o significado prático destes princípios, especialmente na ausência de orientações detalhadas do TJUE sobre requisitos processuais.
Alemanha: Prazos Rigorosos e Deveres Sistémicos
Os tribunais alemães há muito que interpretam estritamente as obrigações de notificação e ação, especialmente ao abrigo da Lei de Execução da Rede (NetzDG), que impõe um prazo de 24 horas para remover “conteúdo manifestamente ilegal”.
Numa decisão de 2021 do Tribunal Regional Superior de Dresden, uma plataforma de redes sociais foi considerada responsável por comentários difamatórios publicados por utilizadores, porque atrasou a ação após receber um pedido de remoção suficientemente detalhado. O tribunal enfatizou que, uma vez notificada, as plataformas devem agir rapidamente — mesmo sem uma ordem judicial formal — se a ilegalidade do conteúdo for evidente.
Ponto Chave:
Na Alemanha, uma notificação detalhada de uma parte lesada pode ser suficiente para estabelecer conhecimento real, e atrasos superiores a alguns dias podem levar à responsabilidade, mesmo sem maior envolvimento judicial.
França: Equilibrando a Supervisão Judicial com a Responsabilidade da Plataforma
A abordagem da França ao abrigo da Lei LCEN (2004) reflete uma postura mais cautelosa, com uma forte ênfase na determinação judicial da ilegalidade antes que a remoção de conteúdo seja obrigatória.
Num caso de 2022 no Tribunal de Apelação de Paris, o tribunal decidiu que uma plataforma não era responsável por não remover conteúdo a pedido do utilizador, porque o material denunciado não era manifestamente ilegal e exigia uma avaliação judicial de difamação. O tribunal sublinhou que as plataformas não são obrigadas a atuar como juízes e podem aguardar uma decisão judicial, a menos que o conteúdo viole claramente a lei (por exemplo, discurso de ódio, incitamento à violência).
Ponto Chave:
Os tribunais franceses distinguem entre conteúdo manifestamente ilegal, que deve ser removido após notificação, e conteúdo cuja ilegalidade é ambígua ou contestada — em que se espera uma revisão judicial.
Espanha: Ênfase nos Tempos de Resposta e Dever de Diligência
Em Espanha, a Ley de Servicios de la Sociedad de la Información (LSSI) incorpora o mecanismo N&A da Diretiva de Comércio Eletrónico. Os tribunais espanhóis têm geralmente favorecido uma abordagem pragmática, baseada na diligência.
Numa decisão de 2020 da Audiencia Provincial de Madrid, uma plataforma foi considerada parcialmente responsável por não remover conteúdo calunioso após ter recebido múltiplas denúncias de utilizadores. O tribunal concluiu que, embora a plataforma não tivesse “conhecimento efetivo” inicialmente, o padrão de notificações repetidas e a falta de procedimentos internos de escalonamento demonstraram uma violação do seu dever de agir diligentemente.
Ponto Chave:
Os tribunais espanhóis esperam que as plataformas implementem procedimentos de escalonamento internos eficazes e que tratem as notificações repetidas de utilizadores como um gatilho para uma análise de conteúdo mais aprofundada.
Implicações Transfronteiriças ao abrigo do DSA
O DSA fornece agora uma estrutura harmonizada que reflete muitos dos princípios derivados da jurisprudência nacional:
- As plataformas devem garantir mecanismos acessíveis e normalizados para que os utilizadores denunciem conteúdo ilegal (Art. 16.º).
- As notificações devem incluir uma explicação clara da ilegalidade, o URL exato e a identidade do notificante.
- Os fornecedores de alojamento devem notificar os utilizadores quando forem tomadas medidas em relação ao seu conteúdo e devem preservar os direitos processuais através de mecanismos de reclamação e recurso.
As primeiras ações de execução ao abrigo do DSA começam a refletir estas obrigações. Reguladores e tribunais estão agora a concentrar-se em saber se as plataformas respondem de forma proporcional e célere — e se os utilizadores são mantidos informados ao longo de todo o processo.
Recomendações para Fornecedores de SGI
- Implementar uma Infraestrutura N&A Robusta
Assegure-se de que a sua plataforma tem um sistema de reclamações facilmente acessível e bem documentado, com fluxos de trabalho incorporados para revisão de conteúdo, escalonamento e resposta. - Formar as equipas de moderação em critérios legais
Os moderadores de conteúdo devem compreender as definições legais de “manifestamente ilegal” ao abrigo das leis nacionais aplicáveis, especialmente ao distinguir discurso de ódio de opinião ofensiva ou sátira. - Documentar Cada Ação Tomada
Mantenha registos de avisos recebidos, ações efetuadas e cronogramas para demonstrar diligência e conformidade em caso de contestação legal ou auditoria regulamentar. - Rever e Atualize os Termos de Serviço
Explicar claramente as regras de moderação, os procedimentos de notificação e os canais de recurso aos utilizadores nos termos e nas políticas de privacidade da vossa plataforma. - Monitorizar a Jurisprudência nos Estados-Membros
À medida que as interpretações nacionais do DSA evoluem, as plataformas devem manter-se atualizadas com o jurisprudência em jurisdições chave—especialmente onde operam ou têm bases de utilizadores significativas.
Conclusão
A evolução da jurisprudência de notificação e ação nos Estados-Membros da UE demonstra uma tendência constante para uma maior responsabilização e transparência processual. Embora as abordagens nacionais variem, a tendência é clara: as plataformas devem responder a notificações credíveis com diligência e rastreabilidade.
Com a DSA já em vigor, o contencioso deverá incidir no cumprimento dos direitos processuais e na documentação das práticas internas de moderação. Para os operadores de plataformas e prestadores de serviços digitais, compreender as normas práticas estabelecidas pelos tribunais nacionais é essencial para evitar responsabilidade e manter a confiança dos utilizadores.
Mecanismos de Notificação e Ação nos Tribunais">