Blog
Zákon EU o umělé inteligenci a algoritmické řízení na online tržištích

Zákon EU o umělé inteligenci a algoritmické řízení na online tržištích

Alexandra Blake, Key-g.com
podle 
Alexandra Blake, Key-g.com
6 minut čtení
Právní poradenství
Duben 09, 2025

In the digital corridors of the EU, regulators are sharpening their pencils—and their legal teeth. At the center of this regulatory wave is the EU Artificial Intelligence Act, the world’s first major legislation aimed at taming the wild west of artificial intelligence. And if you think this is just a matter for robot developers in labs, think again. Online marketplaces—yes, those slick platforms that serve you oddly perfect product recommendations and price suggestions—are front and center in this legal evolution.

The EU AI Act (AIA) aims to create a future where AI is safe, transparent, and respectful of fundamental rights. That’s a noble goal. But for platform operators, it translates to a host of new obligations, especially when algorithms make decisions that impact users, sellers, or markets. In this article, we explore what the AI Act means for online marketplaces, how it intersects with existing laws like the DSA and GDPR, and how to stay on the compliant—and competitive—side of this fast-evolving landscape.

What is the EU AI Act?

Na stránkách EU AI Act is a landmark piece of legislation proposed by the European Commission in 2021 and expected to enter into force soon. Its aim? To regulate AI systems based on their risk levels:

  • Unacceptable risk AI systems (e.g., social scoring by governments) are banned.
  • High-risk systems (e.g., credit scoring, CV screening) face strict requirements.
  • Limited and minimal risk systems (e.g., spam filters, chatbots) must meet transparency standards.

Marketplaces that use AI to rank search results, match products to users, or detect fraud may fall into the limited or high-risk categories, depending on how deeply those systems influence users’ rights or livelihoods.

How AI Shows Up on Marketplaces

If your platform uses machine learning to:

  • Suggest products based on past behavior
  • Adjust prices dynamically
  • Filter or demote low-quality listings
  • Moderate reviews or detect fake accounts

Then congratulations: you’re using AI—and you may need to rethink how it’s governed. The more automated your decision-making process, the closer regulators will look.

AI governance doesn’t only apply to humanoid robots or self-driving cars. It also applies to the recommendation system that nudges users to buy one phone case over another or to the fraud detection tool that quietly suspends a seller’s account overnight.

Key Obligations for Online Marketplaces Under the AI Act

  1. Risk Classification Platforms must assess whether their AI tools qualify as high-risk systems, especially if they impact consumers’ legal rights, financial stability, or access to economic opportunities. An AI that filters or blocks seller accounts based on automated behavioral patterns may very well qualify.
  2. Transparency Requirements Even if an AI system is considered low risk, platforms must inform users that they’re interacting with or being affected by AI. This includes product recommendations, price changes, and ranking mechanisms. No more hiding the algorithm behind the curtain like it’s the Wizard of Oz.
  3. Data Governance and Quality High-risk AI systems must be trained on high-quality, relevant, and bias-free datasets. That means platforms will need to audit their training data and eliminate patterns that could lead to discriminatory outcomes. If your product recommendation engine thinks women only want pink gadgets or assumes sellers from one country are more fraudulent, it’s time for a rethink.
  4. Human Oversight Automated systems must include human checks—especially before making impactful decisions like delisting a seller, rejecting a listing, or flagging user behavior. Regulators are increasingly wary of “black box” systems that can’t be explained or challenged. You can’t just blame it on the algorithm anymore.
  5. Robust Documentation Platforms using high-risk AI systems must maintain detailed technical documentation, risk assessments, and logs of system performance. Think of it as a user manual for regulators—and yes, it better be more helpful than the one that came with your Wi-Fi router.

The Intersection with DSA and GDPR

If you’re thinking, “Wait, we already have to comply with the Digital Services Act (DSA) and the General Data Protection Regulation (GDPR)—now this too?” You’re not alone. But the key is understanding how these three frameworks interact.

  • GDPR governs the processing of personal data, including profiling.
  • DSA governs platform accountability, including algorithmic transparency and content moderation.
  • AI Act governs the design, deployment, and risk management of AI systems.

In practice, a single algorithm may trigger all three laws. A recommendation system, for instance, might:

  • Collect behavioral data (GDPR)
  • Hodnotit obsah, který ovlivňuje viditelnost (DSA)
  • Činit vysoce riziková rozhodnutí vyžadující transparentnost a dohled (zákon o AI)

To je legální sendvič o třech vrstvách.

A co AI třetích stran?

Mnoho platforem integruje služby AI třetích stran – například rozhraní API pro detekci podvodů nebo personalizační enginy vytvořené dodavateli. Zákon o AI činí platformy odpovědnými nejen za to, co vytvářejí, ale i za to, co use. Pokud se váš nástroj třetí strany chová špatně, je to i váš problém v oblasti souladu.

To znamená, že platformy musí:

  • Veterinární prodejci pečlivě
  • Zkontrolujte jejich dokumentaci
  • Smluvně zajistit soulad a auditní práva

Jen proto, že jste ten algoritmus nenapsali, neznamená to, že se můžete dívat jinam.

Jak se připravit: Praktický kontrolní seznam

  • Zmapujte své systémy AI: Identifikujte každé místo, kde se AI používá, přímo nebo prostřednictvím třetích stran.
  • Klasifikujte riziko: Použijte kategorie definované zákonem o umělé inteligenci (AI Act) k pochopení své povinnosti dodržovat předpisy.
  • Proveďte audit svých dat: Eliminujte zkreslení, zkontrolujte kvalitu a dokumentujte zdroje.
  • Přidat upozornění týkající se transparentnosti: Dejte uživatelům vědět, kdy jsou ovlivňováni algoritmy.
  • Navrhněte procesy se zapojením lidí do smyčky: Povolte odvolání, manuální kontrolu a přepsání.
  • Udržujte protokoly a dokumentaci: Pokud se regulátoři ozvou, buďte připraveni vysvětlit, jak váš systém funguje.

Závěrečné myšlenky

EU AI Act je zásadní změnou pro online tržiště. Vyžaduje nejen shodu, ale i kulturní posun – od optimalizace pouze pro zapojení a konverze k navrhování systémů, které jsou vysvětlitelné, spravedlivé a odpovědné. To neznamená, že se platformy musí AI vzdát. Znamená to ale, že se k ní musí chovat ne jako k černé skříňce magie, ale jako k regulovanému nástroji s reálnými důsledky.

Takže pokud váš algoritmus rozhoduje o tom, kdo co uvidí, kdo bude prodán nebo kdo bude zakázán, je na čase vystoupit zpoza opony. Budoucnost důvěryhodné AI nezávisí jen na chytřejším kódu – ale i na chytřejší správě.