Välittäjävastuun käsite – onko digitaaliset alustat vastuussa käyttäjien tuottamasta sisällöstä ja milloin – on ollut EU:n digitaalilainsäädännön kulmakivi sähköisen kaupankäynnin direktiivin (direktiivi 2000/31/EY) hyväksymisestä lähtien. Artiklan 14 mukaan hosting-palvelujen tarjoajat on vapautettu vastuusta laittomasta sisällöstä ellei heillä on tosiasiallista tietoa, mutta he eivät toimi nopeasti poistaakseen tai estääkseen pääsyn.
Euroopan unionin tuomioistuimen (EUT) viimeaikainen oikeuskäytäntö, Glawischnig-Piesczek v Facebook Ireland (C-18/18) on kyseenalaistanut joitain pitkään vallinneita olettamuksia kyseisen poikkeuksen laajuudesta ja rajoista. Kun EU:n digipalvelusäädös (DSA) tulee voimaan, nämä päätökset tarjoavat kriittistä ohjeistusta siitä, mitä alustojen on tehtävä – ja mitä ne eivät voi enää sivuuttaa.
Glawischnig-Piesczek v Facebook (C-18/18): Ilmoitus- ja poistomenettelyn ulkopuolella
Vuonna 2019 annetussa tuomiossa unionin tuomioistuin tarkasteli, voidaanko Facebook määrätä poistamaan tai estämään pääsy loukkaavaan sisältöön maailmanlaajuinen ja ulottuisiko tällainen velvoite identtinen tai vastaava sisältöä – ei pelkästään tiettyä ilmoitettua julkaisua.
Tapaus sai alkunsa itävaltalaisen poliitikon Eva Glawischnigin toimesta, joka vaati käyttäjän Facebook-päivityksen poistamista, koska se loukkasi ja herjasi häntä. Hän pyysi myös, että Facebook estäisi vastaava sisältö ilmestymästä tulevaisuudessa.
Tärkeimmät omistukset:
- Alusta voidaan vaatia poistamaan sisältö, joka on identtistä tai vastaavaa sisällön kanssa jonka on jo todettu olevan lainvastainen, edellyttäen, että haku ei edellytä itsenäistä arviointia alustalla.
- Velvoite voi laajenna globaalisti, riippuen kansallisen tuomioistuimen määräyksen laajuudesta ja sovellettavasta kansainvälisestä oikeudesta.
- Päätös on ei ole ristiriidassa 15 artiklan kanssa sähköisen kaupankäynnin direktiivin säännöksistä, joka kieltää yleiset valvontavelvoitteet, koska valvontavelvoite on erityinen ja kohdennettu.
Vaikutukset:
- Alustojen on oltava valmiita toteuttamaan automatisoidut suodatus- tai ennakoivat tunnistustyökalut saatuaan ilmoituksen lainvastaisesta sisällöstä.
- The idea of ”vastaava sisältö” tuo mukanaan uutta monimutkaisuutta. Alustojen on päätettävä, kuinka laajasti samankaltaisuutta tulkitaan ja mitä työkaluja vaaditaan noudattamiseen.
- Päätös viittaa siihen, että lainkäyttöalueen rajat ei välttämättä rajoita poistovelvoitteita, mikä lisää globaalien poistomääräysten riskiä.
Muita merkittäviä tuomioita hosting-palveluiden vastuusta
Vaikka Glawischnig-Piesczek on otsikkotapaus, useat muut päätökset ovat muokanneet verkkopalvelun tarjoajien vastuun kehystä:
- YouTube ja Cyando (yhdistetyt asiat C-682/18 ja C-683/18):
- Vahvistettiin, että alustat voivat hyötyä isännöinnin vastuuvapauksista, jos ne pysyvät passiivinen äläkä aktiivisesti edistää esittelyä tai mainostusta laitonta sisältöä.
- Kuitenkin he menettää immuniteetin jos he soittavat an aktiivinen rooli—kuten sisällön kuratointi tai tekijänoikeuksia loukkaavan materiaalin suositteleminen.
- SABAM v Netlog (C-360/10):
- Confirmed that general filtering obligations are not permitted under EU law.
- Platforms cannot be compelled to monitor all user content in advance.
- L’Oréal v eBay (C-324/09):
- Established that platforms may be liable when they have knowledge of illegal activity and do not act quickly.
- Platforms engaging in commercial promotion of third-party goods may not be “neutral” intermediaries.
Key Principles Emerging from Case Law
- Actual knowledge triggers responsibility. Once a platform is notified of illegal content, it must act promptly or face liability.
- Passive vs. active distinction is critical. The more editorial or curatorial control a platform exerts, the less likely it will qualify for immunity.
- Obligations may be ongoing and proactive. Platforms may have to remove not just the original content, but also vastaava sisältö—even proactively.
- No general monitoring, but targeted filtering allowed. Courts can order platforms to prevent specific types of content, but not to pre-screen all uploads.
How Platforms Should React
- Implement Effective Notice-and-Action Mechanisms.
Platforms must ensure they have fast, transparent, and user-friendly processes for handling illegal content notifications. Delays can trigger liability. - Develop and Audit Filtering Technology.
Proactive tools (e.g., content hashing, keyword matching) may be required to identify and remove equivalent or repeat content. - Maintain Content Moderation Logs and Records.
Platforms should document takedown decisions, timestamps, and user notifications to demonstrate good faith compliance. - Establish Clear User Terms and Enforcement Policies.
Strong and enforceable community guidelines can help demonstrate the platform’s commitment to preventing abuse. - Assess Global Impacts of Court Orders.
Legal teams must evaluate whether takedown obligations have international reach and how to balance conflicting laws.
Päätelmä
Intermediary liability in the EU is no longer a static or purely reactive concept. The CJEU has opened the door to proactive, targeted obligations, and platforms must respond with scalable and legally robust processes. With the Digital Services Act reinforcing and expanding upon these principles, the need for legal risk assessments, compliance programs, and moderation infrastructure is greater than ever.
For platform operators, legal counsel, and digital service providers, staying ahead of this case law is essential—not just to avoid liability, but to build trust in an increasingly regulated online environment.
If your company operates an online platform, we can assist in reviewing your content policies, notification systems, and legal risk under EU and national laws. Contact our digital services legal team for tailored compliance support.