Blog
Co znamená zákon EU o umělé inteligenci pro inteligentní tržiště a personalizovaná doporučení

Co znamená Akt EU o AI pro chytré trhy a personalizovaná doporučení

Alexandra Blake, Key-g.com
podle 
Alexandra Blake, Key-g.com
6 minut čtení
Právní poradenství
Duben 06, 2025

Vítejte ve věku inteligentních tržišť, kde vaše oblíbená nákupní platforma vypadá, že vás zná lépe než váš nejlepší přítel. Jednou kliknete na pár turistických bot a najednou vám každý kout digitálního světa nabízí ponožky, batohy a pronájem stanů. To není magie – jsou to algoritmy. Ale nyní Evropská unie tyto algoritmy zkoumá pod mikroskopem.

Vstupuje na scénu zákon EU o umělé inteligenci (AI Act): dalekosáhlý kus legislativy, který slibuje stát se GDPR pro AI. Pokud váš chytrý tržiště využívá doporučovací enginy, dynamické ceny nebo AI řízené žebříčky prodejci, tento zákon míří na vás. A na rozdíl od vašeho doporučovacího widgetu se nezeptá hezky.

Pojďme si rozebrat, co Zákona o umělé inteligenci EU znamená pro moderní tržiště – a jak můžete zůstat v souladu bez vypnutí vašeho obchodního modelu.

Co je EU AI Act (ve zkratce)?

Zákon o umělé inteligenci (AI Act), přijatý Evropským parlamentem v roce 2024, je prvním významným zákonem na světě, který se konkrétně zabývá regulací systémů umělé inteligence. Jeho cíle jsou:

  • Podporujte důvěryhodnou, lidsky orientovanou AI
  • Zabránit škodlivým nebo diskriminačním výsledkům
  • Sjednotit pravidla v zemích Evropské unie

Kategorizuje systémy umělé inteligence do čtyři úrovně rizika:

  1. Nepřijatelná rizika – Zakázáno přímo (např. sociální skórování)
  2. Vysoké riziko – Silně regulované (např. biometrické systémy pro identifikaci).
  3. Limited Risk – Podléhá povinnostem transparentnosti
  4. Minimální riziko – Většinou nepodléhající regulaci (např. filtry spamu)

Most AI systémy související s tržištěm—jako doporučovací systémy a automatizovaná moderace—spadají do kategorií „omezené“ nebo „vysoké“ riziko. Promiň, algoritme, už nejsi nízké riziko.

Jak dopad AI Act ovlivňuje inteligentní tržiště

Platformy, které využívají umělou inteligenci pro personalizované doporučení, algoritmy pro hodnocení, detekci podvodů nebo dynamické ceny, nyní spadají přímo pod kontrolu AI Act.

Pojďme se podívat na klíčové oblasti, kde by vaši platformu mohla zasáhnout regulace:

1. Personalizovaná doporučení (omezené riziko)

Váš widget „Mohlo by se vám také líbit“ by mohl nyní spouštět transparentní povinnosti:

  • Uživatelé musí být informováni interagují s AI systémem
  • Logika doporučení musí být vysvětlitelné na požádání
  • Spotřebitelé musí být schopni odhlásit se of AI-driven personalizace

📌 Překlad: Váš AI nemůže jen tiše hádat – musí se představit.

2. Dynamické ceny a personalizované nabídky (vysoké riziko?)

Pokud se váš cenový model upravuje v reálném čase na základě chování uživatelů, polohy nebo vnímané ochoty platit, může být považován za vysoké riziko podle AI Actu.

Proč?

  • Potenciál pro diskriminační výsledky
  • Riziko ekonomická manipulace

📌 Povinnosti zahrnují:

  • Posouzení rizik
  • Lidské dohled
  • Dokumentace a ověřitelnost

Rozlučte se se svým cenovým enginem typu "černá skříňka" – nebo mu alespoň dejte papírovou stopu.

3. Algoritmy žebříčku prodejce a párování

Tržiště, která algoritmicky propojují kupující a prodávající (např. třídění výsledků vyhledávání, zvýrazňování nejlépe hodnocených poskytovatelů), se mohou dostat do vysoce rizikové oblasti. pokud výrazně ovlivňují přístup k zboží nebo službám.

🧠 Pamatujte: V logice EU, access = impact = regulation.

Možná budete muset:

  • Vysvětlete logiku hodnocení uživatelům a prodejcům
  • Auditování výsledků hodnocení z hlediska zaujatosti nebo nespravedlivé diskriminace
  • Poskytněte způsob, jak zpochybnit nespravedlivé hodnocení

Povinnosti AI Aktu (neboli Seznam úkolů, o který jste nežádali)

Pokud váš AI spadá do kategorie omezeného nebo vysokého rizika, zde je, co zákonodárství od vás očekává:

Transparency

  • Odhalit, když uživatelé interagují s AI
  • Vysvětlete, jak se rozhoduje (lidskému člověku, ne jen datovému vědci).

Řízení rizik

  • Identifikujte rizika, jako je zkreslení, manipulace nebo chyby
  • Zaveďte opatření ke zmírnění.

Data Governance

  • Zajistěte, aby byly trénovací data vysoce kvalitní, reprezentativní a eticky získaná.

Lidské dozory

  • Umožnit skutečným lidem zasáhnout, přepsat nebo zastavit systém.

Prohlížení a monitorování

  • Udržujte záznamy o rozhodnutích a výkonnosti modelů pro účely auditu.

Hodnocení souladu

  • Některé systémy musí být testovány a certifikovány před vstupem na trh.

📌 A ano, zahrnuje to i váš A/B testovaný widget "nejrelevantnější výsledky" založený na strojovém učení.

Co se stane, když to budete ignorovat?

Jsme rádi, že jste se zeptal/a.

Nedodržování Zákona o umělé inteligenci může vést k:

  • Pokuty až do 35 milionů eur nebo 7% celosvětového obratu (až bude vyšší)
  • Vynucené pozastavení AI systémů, které nejsou v souladu s požadavky
  • Poškození pověsti a kolektivní žaloby

📌 Jinými slovy: Váš algoritmus nemůže jen tak zmizet před EU. Bude vypátrán.

Ale počkejte – nejsme jen platforma?

Výmluva "jsme jen technologická platforma" nefungovala se zákonem o digitálních službách a nebude fungovat ani tady.

Pokud vaše tržiště využívá umělou inteligenci k utváření:

  • Uživatelská zkušenost
  • Ceny
  • Viditelnost prodejce

…pak gratulujeme, jste v rozsahu.

A nezáleží na tom, zda je váš AI model vyvinut interně, nebo licencován od třetí strany. Vy jste odpovědní za dodržování předpisů.

Tipy, jak si udržet (zázkonitě) bystrost

Pojďme si to prakticky ukázat. Zde je návod, jak ochránit vaši platformu a kódovou základnu před kolapsem kvůli dodržování předpisů:

1. Inventář Vašich AI systémů

Vytvořte seznam všeho, co využívá strojové učení nebo rozhodovací automatizaci – doporučení, filtry podvodů, personalizační enginy.

2. Kategorizujte riziko

Použijte čtyřstupňový systém Zákona o umělé inteligenci k označení každého nástroje.

3. Přidat vrstvy vysvětlitelnosti

Vytvořte prvky uživatelského rozhraní, které vysvětlují „proč to vidíte“, s logikou v prostém jazyce.

4. Dejte uživatelům kontrolu

Nechte je vypnout personalizaci. Ne proto, že by to byla zábava, ale proto, že to nařizuje zákon.

5. Vytvořte tým pro dodržování předpisů

Ano, právníci. Ale také UX designéři, etici a datoví vědci. Je to mezifunkční sport.

📌 Bonus: Jmenujte interního „ředitele pro dodržování předpisů v oblasti AI.“ Pokud nic jiného, zní to cool.

Humorní vsuvka: Algoritmická transparentnost v reálném životě

Představte si číšníka, jak říká:
“Tyto těstoviny máš, protože náš kuchyňský algoritmus předpovídá, že máš nízkou hladinu cukru v krvi, náladu máš úzkostnou a tvůj rozpočet je střední.”

Nyní si představte, že by EU řekla:
„Přesně tak. To by měla vaše AI uživatelům říkat.“

Vítejte v roce 2025.

Závěrečné myšlenky: Soulad je vlastnost

Je lákavé považovat zákon o umělé inteligenci za byrokratickou nepříjemnost. Ale ve světě, kde jsou uživatelé unaveni manipulativními algoritmy, transparentnost a odpovědnost mohou být vaší tajnou zbraní.

  • Buduje důvěru
  • Snižuje riziko
  • Vynucuje lepší návrh

A buďme upřímní: pokud vaše AI potřebuje právníka a UX designéra, aby fungovala, pravděpodobně dělá něco zajímavého.

Chytrá tržiště nejsou jen o chytrých doporučeních – jsou o chytré správě. A podle zákona EU o umělé inteligenci nestačí být „jen chytrý“.

Musíš být chytrý a souladu. Nejlépe ještě předtím, než regulátor pošle pozvánku do kalendáře.