Блог
Що Закон ЄС про ШІ означає для розумних торгових майданчиків і персоналізованих рекомендацій

Що Закон ЄС про штучний інтелект означає для розумних торгових майданчиків і персоналізованих рекомендацій

Олександра Блейк, Key-g.com
до 
Олександра Блейк, Key-g.com
6 хвилин читання
Юридичний консалтинг
Квітень 06, 2025

Welcome to the age of intelligent marketplaces, where your favorite shopping platform seems to know you better than your best friend. You click once on a pair of hiking boots, and suddenly every corner of the digital world offers you socks, backpacks, and tent rentals. That’s not magic—it’s algorithms. But now, the European Union is putting those algorithms under the microscope.

Enter the EU Artificial Intelligence Act (AI Act): a sweeping piece of legislation that promises to be the GDPR of AI. If your smart marketplace uses recommendation engines, dynamic pricing, or AI-driven seller rankings, this law is coming for you. And unlike your recommendation widget, it doesn’t ask nicely.

Let’s unpack what the EU AI Act means for modern marketplaces—and how you can stay compliant without short-circuiting your business model.

What Is the EU AI Act (In a Nutshell)?

The AI Act, adopted by the EU Parliament in 2024, is the world’s first major law specifically regulating artificial intelligence systems. Its goals are to:

  • Promote trustworthy, human-centric AI
  • Prevent harmful or discriminatory outcomes
  • Standardize rules across EU member states

It categorizes AI systems into four risk levels:

  1. Unacceptable Risk – Banned outright (e.g., social scoring)
  2. High Risk – Heavily regulated (e.g., biometric ID systems)
  3. Limited Risk – Subject to transparency obligations
  4. Minimal Risk – Largely unregulated (e.g., spam filters)

Most marketplace-related AI systems—like recommendation engines and automated moderation—fall into the “limited” or “high” risk categories. Sorry, algorithm, you’re not low risk anymore.

How the AI Act Impacts Smart Marketplaces

Marketplaces that use AI for personalized recommendations, ranking algorithms, fraud detection, or dynamic pricing now fall squarely under the AI Act’s scrutiny.

Let’s look at key areas where your platform might get zapped by regulation:

1. Personalized Recommendations (Limited Risk)

Your “You May Also Like” widget might now trigger transparency obligations:

  • Users must be informed they’re interacting with an AI system
  • The logic behind the recommendation must be explainable upon request
  • Consumers must be able to opt out of AI-driven personalization

📌 Translation: Your AI can’t just guess silently—it has to introduce itself.

2. Dynamic Pricing & Personalized Offers (High Risk?)

If your pricing model adjusts in real time based on user behavior, location, or perceived willingness to pay, it may be considered high-risk under the AI Act.

Why?

  • Potential for discriminatory outcomes
  • Risk of economic manipulation

📌 Obligations include:

  • Risk assessments
  • Human oversight
  • Documentation and auditability

Say goodbye to your black-box pricing engine—or at least give it a paper trail.

3. Seller Ranking & Matchmaking Algorithms

Marketplaces that algorithmically match buyers and sellers (e.g., sorting search results, highlighting top-rated providers) may fall into high-risk territory if they significantly impact access to goods or services.

🧠 Remember: In EU logic, access = impact = regulation.

You may need to:

  • Explain ranking logic to users and sellers
  • Audit ranking outcomes for bias or unfair discrimination
  • Provide a way to challenge unfair rankings

AI Act Obligations (aka The To-Do List You Didn’t Ask For)

If your AI falls into limited or high risk, here’s what the Act expects from you:

Прозорість

  • Disclose when users interact with AI
  • Explain how decisions are made (to a human, not just your data scientist)

Risk Management

  • Identify risks like bias, manipulation, or errors
  • Put mitigation strategies in place

Data Governance

  • Ensure training data is high-quality, representative, and ethically sourced

Human Oversight

  • Allow real humans to intervene, override, or stop the system

Logging and Monitoring

  • Maintain records of decisions and model performance for audits

Conformity Assessments

  • Some systems must be tested and certified before entering the market

📌 And yes, that includes your A/B-tested, machine-learning “most relevant results” widget.

What Happens If You Ignore It?

We’re glad you asked.

Non-compliance with the AI Act can lead to:

  • Fines of up to €35 million або 7% of global turnover (whichever is higher)
  • Forced suspension of non-compliant AI systems
  • Reputational damage and class-action lawsuits

📌 In other words: Your algorithm can’t just ghost the EU. It will be tracked down.

But Wait—Aren’t We Just a Platform?

The “we’re just a tech platform” excuse didn’t work with the Digital Services Act, and it won’t work here either.

If your marketplace uses AI to shape:

  • User experience
  • Pricing
  • Seller visibility

…then congratulations, you’re in scope.

And it doesn’t matter if your AI model is built in-house or licensed from a third-party vendor. You are responsible for compliance.

Tips for Staying (Legally) Smart

Let’s make this practical. Here’s how to protect your platform and your codebase from a compliance meltdown:

1. Inventory Your AI Systems

Make a list of everything that uses machine learning or decision automation—recommendations, fraud filters, personalization engines.

2. Categorize Risk

Використовуйте чотирирівневу систему AI Act для позначення кожного інструменту.

3. Додайте шари пояснюваності

Створюйте функції інтерфейсу користувача, які пояснюють «чому ви це бачите», зрозумілою мовою.

4. Надайте користувачам контроль

Дозвольте їм вимикати персоналізацію. Не тому, що це весело, а тому, що це закон.

5. Створіть команду з питань дотримання нормативних вимог

Так, юристи. Але також UX-дизайнери, етики та науковці даних. Це крос-функціональний вид спорту.

📌 Бонус: Призначте внутрішнього «офіцера з питань дотримання вимог ШІ». Якщо нічого іншого, це звучить круто.

Гумористична пауза: Алгоритмічна прозорість у реальному житті

Уявіть, що офіціант каже:
“Ви отримали цю пасту, тому що наш кухонний алгоритм передбачає, що у вас низький рівень цукру в крові, тривожний настрій і середній бюджет.”

А тепер уявіть, як ЄС каже:
“Саме так. Це те, що ваш ШІ має говорити користувачам.”

Ласкаво просимо до 2025 року.

Останні думки: Відповідність – це особливість

Спокусливо ставитися до Закону про штучний інтелект як до бюрократичної прикрості. Але у світі, де користувачі втомилися від маніпулятивних алгоритмів, прозорість і підзвітність можуть бути вашою секретною зброєю.

  • Це зміцнює довіру
  • Це зменшує ризик
  • Це змушує до кращого дизайну

І, будемо чесними: якщо вашому ШІ потрібен юрист і UX-дизайнер для функціонування, він, ймовірно, робить щось цікаве.

Розумні торгові майданчики – це не лише про розумні рекомендації, але й про розумне управління. А згідно з EU AI Act, бути «просто розумним» недостатньо.

Ви маєте бути кмітливим і відповідним. Бажано до того, як регулятор надішле запрошення в календар.