EU AI Act
EU AI Act (Nariadenie 2024/1689) je prvý komplexný právny rámec na svete pre umelú inteligenciu. Zavádza klasifikačný systém založený na riziku pre AI systémy, pričom ukladá požiadavky od povinností transparentnosti až po úplné zákazy v závislosti od úrovne rizika. Pre výrobcov hardvéru vytvárajúcich AI produkty má Act priame dôsledky na návrh Edge AI, dokumentáciu a posúdenie zhody.
Kľúčové fakty
| Detail | Informácia |
|---|---|
| Celý názov | Nariadenie (EÚ) 2024/1689, ktorým sa stanovujú harmonizované pravidlá pre umelú inteligenciu |
| Nadobudnutie účinnosti | 1. august 2024 |
| Zakázané praktiky AI | 2. február 2025 |
| Povinnosti GPAI | 2. august 2025 |
| Vysoko rizikové AI — plné povinnosti | 2. august 2026 |
| Rozsah | Všetky AI systémy uvedené na trh EÚ alebo používané v EÚ, bez ohľadu na miesto vývoja |
| Sankcia | Až 35 miliónov € alebo 7 % celosvetového ročného obratu (zakázané praktiky) |
Kategórie rizika
AI Act klasifikuje AI systémy do štyroch úrovní:
| Úroveň rizika | Príklady | Povinnosti |
|---|---|---|
| Neprijateľné | Sociálne bodovanie, biometrická identifikácia v reálnom čase na verejnosti (s výnimkami), manipulatívna AI | Zakázané — nesmie byť uvedené na trh EÚ |
| Vysoko rizikové | Zdravotnícke zariadenia s AI, bezpečnostné komponenty vo vozidlách, monitorovanie kritickej infraštruktúry, biometrická identifikácia | Plné posúdenie zhody, riadenie rizík, správa údajov, ľudský dohľad, technická dokumentácia |
| Obmedzené riziko | Chatboty, rozpoznávanie emócií, deepfakes | Povinnosti transparentnosti — používatelia musia byť informovaní o interakcii s AI |
| Minimálne riziko | AI spam filtre, AI vo videohrách, riadenie zásob | Žiadne špecifické povinnosti |
Dopad na hardvérové produkty
Edge AI zariadenia
Pre výrobcov produktov s on-device AI inferenciou (Edge AI):
| Požiadavka | Čo to znamená pre hardvér |
|---|---|
| Klasifikácia rizika | Výrobca musí klasifikovať úroveň rizika AI systému |
| Technická dokumentácia | Úplná dokumentácia AI modelu, tréningových dát a metrík výkonu |
| Posúdenie zhody | Vysoko rizikové AI vstavané v hardvéri môžu vyžadovať posúdenie treťou stranou |
| Ľudský dohľad | Hardvér musí poskytnúť rozhrania pre ľudskú kontrolu/prepísanie AI rozhodnutí |
| Logovanie presnosti | Systém musí logovať AI rozhodnutia pre audit a monitorovanie zaujatosti |
Edge AI ako stratégia súladu
Spracovanie dát na zariadení pomocou Edge AI môže znížiť regulačnú záťaž v porovnaní s cloud AI:
| Aspekt | Cloud AI | Edge AI |
|---|---|---|
| Prenosy údajov | Dáta odosielané na servery tretích strán — obavy GDPR | Dáta zostávajú na zariadení — zjednodušený súlad |
| Spracovanie tretou stranou | Cloud poskytovateľ je spracovateľ údajov — vyžaduje DPA | Žiadne spracovanie treťou stranou — priama kontrola |
| Audit trail | Musí auditovať AI systémy cloud poskytovateľa | Samostatný, auditovateľný systém na zariadení |
| Latencia pre bezpečnosť | Závislá od siete — nevhodná pre bezpečnostne kritické | Deterministická lokálna inferencia — vhodná pre bezpečnosť |
Strategická výhoda: Edge AI na dedikovanom NPU eliminuje obavy z prenosu dát, zjednodušuje súlad s GDPR a znižuje rozsah posúdenia zhody AI Act.
AI Act vs. ostatné nariadenia EÚ
| Nariadenie | Zameriava sa na | Prepojenie s AI Act |
|---|---|---|
| AI Act | AI systémy (softvér + hardvér) | Primárna regulácia AI |
| CRA | Kybernetická bezpečnosť produktov | AI produkty musia spĺňať oba — AI Act aj CRA |
| GDPR | Ochrana osobných údajov | AI spracúvajúca osobné údaje musí dodržiavať GDPR + AI Act |
| NIS2 | Organizačná bezpečnosť | Organizácie nasadzujúce vysoko rizikové AI sú základné entity NIS2 |
Súvisiace pojmy
- Edge AI — On-device AI inferencia, ktorá zjednodušuje súlad s AI Act prostredníctvom lokálneho spracovania dát.
- CRA — Nariadenie o kybernetickej bezpečnosti produktov, ktoré platí súčasne s AI Act pre pripojené AI zariadenia.
- NIS2 — Smernica o organizačnej kybernetickej bezpečnosti relevantná pre entity nasadzujúce vysoko rizikové AI systémy.