Preskočiť na obsah
Sub-hub · Právo umelej inteligencie · AI Act

AI Act — Nariadenie (EÚ) 2024/1689 o umelej inteligencii

Klasifikácia AI systémov podľa Nariadenia (EÚ) 2024/1689 (AI Act). Štyri kategórie rizík: zakázané praktiky (čl. 5), vysokorizikové (Príloha III), AI s povinnosťou transparentnosti (čl. 50), ostatné. Vysokorizikové AI plne účinné od 2. 8. 2026, prechodné obdobia podľa čl. 113. Sankcie podľa čl. 99.

Nariadenie Európskeho parlamentu a Rady (EÚ) 2024/1689 — neformálne AI Act — je prvý komplexný horizontálny právny predpis o umelej inteligencii vo svete. Vzniklo ako priamo aplikovateľné nariadenie EÚ, ktoré stanovuje štyri kategórie rizík AI systémov, ukladá povinnosti poskytovateľom (provider) aj používateľom (deployer) a pripravuje sankcie podľa čl. 99. AI Act nadobudol účinnosť po fázach: zakázané AI praktiky od 2. februára 2025, povinnosti pre všeobecné AI modely (GPAI) od 2. augusta 2025 a vysokorizikové AI systémy v plnom rozsahu od 2. augusta 2026. Pre AI systémy uvedené na trh pred týmito dátumami platia prechodné obdobia podľa čl. 111. Tento sub-hub zhŕňa, ako AI Act zatrieďuje AI systémy, aké povinnosti ukladá a ako sa pripraviť na compliance vo firme. Pre kontext odporúčame začať pillarom pre AI právo.

Čo je AI Act a koho sa týka

AI Act je priamo účinné Nariadenie EÚ, ktoré sa aplikuje na všetkých účastníkov hodnotového reťazca AI — poskytovateľov, dovozcov, distribútorov, používateľov (deployer) a v určitých prípadoch aj zástupcov mimo EÚ. Pôsobnosť je extrateritoriálna: AI Act sa vzťahuje aj na poskytovateľov AI mimo EÚ, ak je výstup AI systému používaný v EÚ. Pre slovenskú firmu to znamená, že povinnosti AI Act-u sa môžu aplikovať aj pri nasadení AI systému od poskytovateľa z USA alebo iných tretích krajín.

AI Act je založený na riziku (risk-based approach). Namiesto plošnej regulácie všetkých AI systémov rozlišuje štyri úrovne rizika a každej priraďuje primerané povinnosti — od úplného zákazu cez prísne povinnosti zhody pri vysokorizikových systémoch až po minimálne povinnosti transparentnosti pri ostatných AI.

Štyri kategórie rizík AI systémov

Klasifikácia AI systému do správnej kategórie rizika je kľúčový krok, od ktorého závisí celý compliance režim. Porovnanie štyroch kategórií:

KategóriaPrávny základPríkladyPovinnosti
Zakázané AI praktikyČl. 5 AI ActSocial scoring orgánmi verejnej moci, manipulatívne techniky podprahového charakteru, real-time biometrická identifikácia vo verejnom priestore (s výnimkami), prediktívna polícia založená výlučne na profilovaní, neselektívne zbieranie tvárí z internetu pre databázy rozpoznávania.Úplný zákaz uvedenia na trh, používania alebo prevádzkovania. Účinné od 2. 2. 2025.
Vysokorizikové AIČl. 6 a Príloha III AI ActAI v náborovom procese (HR triedenie životopisov), AI rozhodujúce o úvere alebo poistení, AI v kritickej infraštruktúre, AI v zdravotníctve (diagnostika), AI v justícii a presadzovaní práva, AI v posudzovaní vzdelávania.Posudzovanie zhody, dokumentácia, registrácia, riadenie rizík, kvalita dát, ľudský dohľad, transparentnosť, kybernetická bezpečnosť, post-market monitoring. Plne aplikovateľné od 2. 8. 2026.
Mierne rizikové AIČl. 50 AI ActChatboty komunikujúce s ľuďmi, AI generujúce syntetický obsah (deepfake), emočné rozpoznávanie, biometrické kategorizovanie.Povinnosti transparentnosti — používateľ musí byť informovaný, že komunikuje s AI, deepfake musí byť označený ako AI-generated.
Ostatné AIMimo prílohy IIISpam filter, automatické dokončovanie textu, AI v hrách, jednoduché odporúčacie systémy.Minimálne povinnosti, dobrovoľné kódexy správania. Odporúča sa dodržiavanie základných princípov.

Klasifikácia nie je vždy jednoznačná — ten istý AI systém môže byť v jednom použití mierne rizikový (napríklad chatbot pre zákaznícku podporu) a v inom vysokorizikový (chatbot ako automatizovaný rozhodovací nástroj v HR). Posúdenie sa preto vykonáva case-by-case podľa konkrétneho účelu nasadenia.

Zakázané AI praktiky podľa čl. 5

Čl. 5 AI Act vymenúva uzavretý zoznam zakázaných AI praktík, ktoré nie je možné uvádzať na trh, používať ani prevádzkovať v EÚ. Tieto praktiky sú považované za nezlučiteľné so základnými hodnotami EÚ — ľudskou dôstojnosťou, demokraciou a právnym štátom. Zakázané sú najmä:

  • AI systémy používajúce podprahové, manipulatívne alebo klamlivé techniky, ktoré skresľujú správanie a spôsobujú významnú ujmu.
  • AI systémy zneužívajúce zraniteľnosti osoby alebo skupiny (vek, zdravotné postihnutie, sociálna alebo ekonomická situácia).
  • Social scoring orgánmi verejnej moci alebo v ich mene — hodnotenie alebo klasifikácia osôb na základe ich sociálneho správania s nepriaznivými následkami v iných kontextoch.
  • AI systémy posudzujúce riziko spáchania trestného činu výlučne na základe profilovania osoby alebo posúdenia jej osobnostných čŕt.
  • Neselektívne scrapovanie tvárí z internetu alebo CCTV záberov pre vytváranie databáz rozpoznávania tvárí.
  • Emočné rozpoznávanie na pracovisku a vo vzdelávacích inštitúciách (s definovanými výnimkami).
  • Biometrické kategorizovanie osôb na základe citlivých charakteristík (rasa, politický názor, sexuálna orientácia).
  • Real-time biometrická identifikácia vo verejne prístupných priestoroch na účely presadzovania práva (s úzkymi výnimkami pre vážne trestné činy).

Zakázané praktiky sú účinné od 2. februára 2025. Porušenie zákazu je sankcionované podľa čl. 99 AI Act v zákonom stanovenej výške ako podiel z ročného obratu alebo fixná suma — konkrétne sumy stanovuje AI Act a slovenský sankčný zákon.

Vysokorizikové AI systémy

Vysokorizikové AI systémy sú definované v čl. 6 a Prílohe III AI Act. Príloha III obsahuje uzavretý zoznam oblastí, v ktorých AI systémy automaticky spadajú do vysokorizikovej kategórie — okrem iného:

  • Biometria — vzdialená biometrická identifikácia, biometrické kategorizovanie, emočné rozpoznávanie (v rozsahu povolenom čl. 5).
  • Kritická infraštruktúra — riadenie energetických sietí, vodného hospodárstva, dopravy.
  • Vzdelávanie — AI rozhodujúce o prijatí, hodnotení alebo identifikácii podvodov pri skúškach.
  • Zamestnanie a riadenie pracovníkov — AI triedenie CV, AI pri rozhodnutí o povýšení alebo ukončení pracovného pomeru, AI monitoring zamestnancov.
  • Prístup k základným službám — AI rozhodujúce o úvere, poistení, sociálnych dávkach.
  • Presadzovanie práva — AI v hodnotení rizika osôb, hodnotení dôkazov, prediktívna polícia (v rozsahu povolenom čl. 5).
  • Migrácia, azyl a kontrola hraníc — AI v azylových konaniach, posudzovaní bezpečnostného rizika.
  • Justícia a demokratické procesy — AI pomáhajúca súdu pri výklade alebo aplikácii práva.

Pre vysokorizikový AI systém ukladá AI Act povinnosti, ktoré sa aplikujú v plnom rozsahu od 2. augusta 2026:

  1. Systém riadenia rizík — zavedenie, dokumentácia a udržiavanie procesu identifikácie, posudzovania a mitigácie rizík počas celého životného cyklu AI systému.
  2. Kvalita tréningových, validačných a testovacích dát — reprezentatívnosť, absencia diskriminačného bias, dokumentácia pôvodu dát.
  3. Technická dokumentácia — komplexná dokumentácia systému, ktorá umožňuje posúdiť zhodu s AI Act-om.
  4. Logovanie a sledovateľnosť — automatické záznamy o prevádzke AI systému.
  5. Transparentnosť a poskytnutie informácií používateľovi — návod na použitie, popis schopností, obmedzení a rizík.
  6. Ľudský dohľad — možnosť oprávnenej osoby zasiahnuť, korigovať alebo zastaviť AI systém.
  7. Presnosť, robustnosť a kybernetická bezpečnosť — odolnosť voči chybám, manipulácii a útokom.
  8. Posúdenie zhody — povinné posúdenie zhody pred uvedením na trh, v určitých prípadoch s notifikovanou osobou.
  9. Registrácia v EÚ databáze a označenie CE.
  10. Post-market monitoring a oznamovanie závažných incidentov.

Mierne rizikové AI — povinnosti transparentnosti (čl. 50)

Čl. 50 AI Act ukladá povinnosti transparentnosti pre vybrané AI systémy, ktoré nie sú vysokorizikové, ale predstavujú špecifické riziko skreslenia alebo manipulácie:

  • Chatbot komunikujúci s ľuďmi — používateľ musí byť informovaný, že komunikuje s AI systémom, pokiaľ to nie je zrejmé z kontextu.
  • AI generujúci syntetický obsah (text, obraz, audio, video) — výstup musí byť technicky označený ako AI-generated (napríklad watermark, metadáta).
  • Deepfake — obsah, ktorý napodobňuje skutočnú osobu, miesto alebo udalosť, musí byť výslovne označený ako AI-generated.
  • Emočné rozpoznávanie a biometrické kategorizovanie (v povolenom rozsahu) — dotknutá osoba musí byť informovaná.

Všeobecné AI modely (GPAI)

AI Act zaviedol osobitný režim pre všeobecné AI modely (general-purpose AI models, GPAI) — modely trénované na rozsiahlych dátach, schopné plniť široký okruh úloh (napríklad veľké jazykové modely typu GPT, Claude, Llama). Povinnosti pre poskytovateľov GPAI sú účinné od 2. augusta 2025 a zahŕňajú technickú dokumentáciu modelu, dokumentáciu tréningových dát, dodržiavanie autorského práva pri tréningu, transparentnosť voči nadväzujúcim poskytovateľom a — pre GPAI so systémovým rizikom (modely s vysokou výpočtovou kapacitou pri tréningu) — dodatočné povinnosti riadenia rizík a oznamovania incidentov.

Dohliadací orgán v Slovenskej republike

AI Act ponecháva na členské štáty určenie vnútroštátnych kompetentných orgánov. Slovenská republika je v procese transpozičných opatrení a určenia dohliadacích orgánov pre AI Act. Pre dotknuté oblasti (najmä ochrana osobných údajov pri AI systémoch) je relevantný aj Úrad na ochranu osobných údajov SR ako dozorný orgán podľa GDPR a zákona č. 18/2018 Z. z.. Pre sektorové AI systémy (zdravotníctvo, finančné služby) zostávajú kompetentné aj sektorové regulátory (Úrad pre dohľad nad zdravotnou starostlivosťou, NBS).

Sankcie podľa čl. 99 AI Act

Čl. 99 AI Act stanovuje sankcie za porušenie nariadenia. Sankcie sú odstupňované podľa závažnosti porušenia — najprísnejšie sa aplikujú pri porušení zákazu praktík podľa čl. 5, miernejšie pri porušení povinností pre vysokorizikové AI a pri poskytnutí nesprávnych informácií. Sankcie sú stanovené v zákonom stanovenej výške ako podiel z ročného celosvetového obratu alebo fixná suma — konkrétny mechanizmus stanovuje AI Act a slovenský sankčný zákon. Pre malé a stredné podniky AI Act umožňuje členským štátom uplatniť proporcionálne sankcie.

Náš prístup k AI Act compliance

AI Act vedieme komplexne:

  • Klasifikačná analýza — posúdenie, do ktorej kategórie rizika AI systém klienta spadá (zakázaný / vysokorizikový / mierne rizikový / ostatné).
  • Compliance plán — roadmap krokov k dosiahnutiu súladu pred 2. augustom 2026.
  • Interná AI governance smernica — vrátane implementácie AI vo firme, riadenia rizík a ľudského dohľadu.
  • Vendor management — preverenie zmlúv s poskytovateľmi AI nástrojov, alokácia povinností medzi poskytovateľa a používateľa (deployer).
  • Prepojenie s GDPR — DPIA a posúdenie automatizovaného rozhodovania podľa čl. 22 GDPR.
  • Zodpovednosť za škodu — dizajn zmluvných doložiek o zodpovednosti za škodu spôsobenú AI.

Cenovú ponuku pripravujeme individuálne podľa rozsahu AI portfólia klienta a požadovanej hĺbky compliance. Pre úvodné posúdenie zámeru je k dispozícii platená vstupná konzultácia s advokátom.

Často kladené otázky

Aký je rozdiel medzi „poskytovateľom" a „používateľom" AI podľa AI Act?

Poskytovateľ AI (provider) je subjekt, ktorý AI systém vyvíja alebo ho uvádza na trh pod svojím menom. Používateľ AI (deployer) je subjekt, ktorý AI systém používa pod svojou kontrolou. Povinnosti sú odstupňované — poskytovateľ má širší rozsah povinností (technická dokumentácia, post-market monitoring, registrácia v databáze EÚ), používateľ má povinnosti súvisiace s prevádzkou (ľudský dohľad, informovanie dotknutých osôb, vedenie záznamov).

Ktoré AI praktiky sú podľa AI Act zakázané?

Čl. 5 Nariadenia (EÚ) 2024/1689 zakazuje: sociálne skórovanie štátom, manipulatívne podprahové techniky, zneužívanie zraniteľnosti osôb, hromadné scrapovanie tvárí na vytváranie biometrických databáz, rozpoznávanie emócií v práci a vo vzdelávaní (s úzkymi výnimkami), prediktívne polovanie založené výlučne na profile a real-time biometrickú identifikáciu vo verejných priestoroch pri vymáhaní práva (s úzkymi výnimkami pre vážne trestné činy).

Čo musí poskytovateľ vysokorizikového AI splniť?

Pre vysokorizikové AI (Príloha III Nariadenia) je potrebné: systém riadenia rizika (čl. 9), správu dát a tréningových datasetov (čl. 10), technickú dokumentáciu (čl. 11 + Príloha IV), záznamy o prevádzke (čl. 12), transparentnosť voči používateľom (čl. 13), ľudský dohľad (čl. 14), presnosť, robustnosť, kybernetickú bezpečnosť (čl. 15), systém riadenia kvality (čl. 17), posúdenie zhody (čl. 43), označenie CE, registráciu v EÚ databáze (čl. 60), post-market monitoring (čl. 72) a hlásenie incidentov (čl. 73).

Ako sa zaobchádza s ChatGPT a inými generatívnymi AI?

Generatívna AI (vrátane ChatGPT, Gemini, Claude) typicky spadá do kategórie AI s povinnosťou transparentnosti podľa čl. 50 — výstupy musia byť strojovo čitateľne označené ako AI-generované (markings, watermarks). Modely sú zároveň všeobecnými AI modelmi (GPAI) podľa kap. V Nariadenia — poskytovatelia musia mať technickú dokumentáciu, súlad s autorským právom EÚ a zverejnenú sumarizáciu tréningových dát. Pri systémovom riziku (highly capable GPAI) platia prísnejšie povinnosti vrátane model evaluations a hlásenia incidentov.

Aké sankcie hrozia podľa čl. 99 AI Act?

Sankcie sú odstupňované podľa závažnosti porušenia. Najvyššie sankcie za používanie zakázaných AI praktík (čl. 5), nižšie za porušenie ostatných povinností (transparentnosť, dokumentácia) a najnižšie za neposkytnutie informácií dohliadaciemu orgánu. Konkrétna výška je stanovená ako percento celkového ročného obratu alebo ako fixná suma — podľa toho, ktorá je vyššia. MSP a startupy môžu mať proporcionálne nižšie sankcie. Sankcie sa určujú s ohľadom na povahu porušenia, rozsah a opakovanie.

Kto bude na Slovensku dozerať nad AI Act?

Národný dohliadací orgán určí Slovenská republika v rámci transpozičnej legislatívy. Na úrovni EÚ koordinuje implementáciu Európska komisia prostredníctvom AI Office. Pre vysokorizikové AI v špecifických oblastiach (zdravotníctvo, financie, automotive) sa dohľad delí medzi sektorové orgány (NBS pre financie, ŠÚKL pre zdravotnícke pomôcky). Slovenský dohliadací orgán pre AI bude mať právomoc kontroly, ukladania sankcií a koordinácie s ostatnými členskými štátmi.

Vyžiadajte si cenovú ponuku

Stačia 3 údaje — IČO, e-mail, telefón. Cenovú kalkuláciu, zoznam podkladov a návrh dohody pošleme do 1 pracovného dňa. Bezplatne a nezáväzne.

Vyžiadať ponuku →

Obsah má informatívny charakter, nezakladá záväzné právne stanovisko a nenahrádza individuálnu konzultáciu. Konkrétna klasifikácia AI systému a aplikovateľné povinnosti závisia od architektúry, použitia a oblasti nasadenia. Slovenský dohliadací orgán pre AI Act bude určený v rámci národnej transpozičnej legislatívy.

Napíšte nám