Proč se v Česku chystá „zákon o AI“, když už máme EU AI Act
EU AI Act (nařízení (EU) 2024/1689) je přímo použitelné nařízení – podobně jako GDPR. To znamená, že hlavní pravidla pro umělou inteligenci (kategorizace rizik, povinnosti poskytovatelů a nasazovatelů, zákazy některých praktik, pravidla pro vysoce rizikové systémy, požadavky na transparentnost atd.) jsou napsaná přímo v evropském předpisu a platí napříč Unií. Některá jeho ustanovení ovšem nabíhají postupně v jednotlivých fázích
Jenže i „přímo použitelné“ nařízení potřebuje v každém státě doplnit praktické věci, které EU nechává na členských zemích – typicky:
- kdo je kompetentní úřad (a kdo řeší jaké typy případů),
- jak přesně probíhá dozor a řízení (procesní rámec, lhůty, koordinace úřadů),
- jak fungují národní nástroje podpory inovací (např. regulační sandbox),
- jak se vymáhají sankce a kdo je vybírá.
Přesně tohle má řešit český návrh zákona o umělé inteligenci. Podle shrnutí odborné praxe má jít o předpis, který doplní AI Act zejména o dozor, povolovací/testovací procesy a sankční mechanismy.
Ministerstvo průmyslu a obchodu (MPO) zároveň komunikuje, že chce jít „minimalistickou“ cestou: tj. nepřepisovat povinnosti z AI Actu do českého zákona, ale doplnit jen to, co je potřeba pro fungování v Česku, a zároveň nebrzdit inovace zbytečnou administrativou.
Kdo bude v Česku „AI policie“?
Nejdůležitější praktická otázka pro firmy i úřady je: Kdo mě bude kontrolovat a kam se obrátím, když řeším problém? Návrh rozděluje kompetence mezi více institucí, aby se opřel o jejich stávající expertizu (finance, telekomunikace, osobní údaje apod.).
Z odborných shrnutí i textu návrhu vyplývá tento základní model:
- Český telekomunikační úřad (ČTÚ) má být „primární“ dozorový orgán a zároveň jednotné kontaktní místo.
- Česká národní banka (ČNB) dohlíží na subjekty, které už dnes podléhají jejímu dohledu (typicky finanční sektor), pokud při své regulované činnosti používají AI. To odpovídá logice: dozor zůstává tam, kde už existuje.
- Úřad pro ochranu osobních údajů (ÚOOÚ) má mít roli zejména tam, kde se vysoce riziková AI potkává s ochranou osobních údajů a základních práv.
- Úřad pro technickou normalizaci, metrologii a státní zkušebnictví (ÚNMZ) má vystupovat jako oznamující orgán pro oblast oznámených subjektů a kontrolu jejich povinností (tj. mimo jiné návaznost na posuzování shody).
- V systému má figurovat i Veřejný ochránce práv – v návrhu se počítá s jeho rolí v rovině ochrany základních práv.
Praktický dopad pro firmy: když vyvíjíte nebo nasazujete AI, nestačí znát jen AI Act. Budete potřebovat vědět, který úřad je pro váš případ příslušný (a kdy se může věc „přelévat“ mezi úřady). Návrh dokonce počítá s výměnou informací mezi ČTÚ a ÚOOÚ při zahájení kontrol nebo řízení.
Související služba
Máte dotaz ohledně AI a práva?
Používáte ve firmě umělou inteligenci, nebo ji teprve zvažujete? Nejste si jistí, jestli váš nástroj spadá pod vysoce rizikovou AI, kdo na vás bude dohlížet nebo jak se připravit na kontrolu podle AI Actu a českého zákona o umělé inteligenci? Zašlete nám svůj dotaz a získejte odpověď do 24 hodin.
Více informací
- Při objednání služby přesně víte, co dostanete a kolik vás to bude stát.
- Vše zvládneme on-line nebo osobně v jedné z našich 6 kanceláří.
- 8 z 10 požadavků vyřešíme do 2 pracovních dnů.
- Pro každý právní obor máme specialistu.
Vysoce riziková AI: povolení, testování v reálných podmínkách a pevné lhůty
V praxi se nejvíc řeší „high-risk“ systémy – tedy AI, která může významně zasahovat do života lidí (typicky v oblasti zaměstnání, vzdělávání, zdravotnictví, kritické infrastruktury, veřejných služeb apod.). AI Act pro ně nastavuje nejtvrdší povinnosti.
Český adaptační zákon se do detailu nepouští do samotných technických požadavků (ty jsou v AI Actu), ale řeší procesní rámec dvou klíčových situací:
A) Provoz vysoce rizikové AI i bez posouzení shody (výjimečný režim)
Návrh obsahuje řízení o povolení uvést vysoce rizikový systém AI na trh nebo do provozu bez posouzení shody, přičemž stanoví, že účastníkem řízení je pouze žadatel, a nastavuje rozhodovací lhůtu až 120 dnů.
To je důležité: nejde o „volnou vstupenku“ bez pravidel, ale o formální proces, ve kterém úřad zkoumá splnění podmínek a může povolení změnit či zrušit, pokud podmínky dodatečně splněné nejsou.
B) Testování vysoce rizikové AI v reálných podmínkách
Druhá velká věc je schválení testování vysoce rizikové AI v reálných podmínkách (tzv. real-world testing). Návrh opět staví řízení tak, že účastníkem je pouze žadatel a u složitých případů stanoví lhůtu až 90 dnů.
Z praxe je to podstatné pro firmy, které chtějí AI otestovat „na živých datech“ nebo se skutečnými uživateli, ale zároveň potřebují právní jistotu, že postupují správně a že případné riziko je řízené.
Co si z toho odnést:
- pokud se vás týká „high-risk“ režim, nestačí mít hotovou dokumentaci podle AI Actu – budete řešit i správní proces a komunikaci s úřadem,
- na plánování projektu má dopad, že zákon pracuje s pevnými lhůtami 90/120 dnů (počítejte s nimi v harmonogramu).
Regulační sandbox: co to je a proč by vás měl zajímat
Regulační sandbox je koncept „kontrolovaného prostředí“, kde lze inovaci testovat s dohledem a metodickou podporou státu. U AI je to užitečné zejména tehdy, když je produkt na hraně vysoce rizikové kategorie, pracuje se citlivými scénáři (např. biometrika, HR, scoring) nebo potřebujete bezpečně ověřit dopady na uživatele a compliance.
Český návrh se sandboxem počítá výslovně. Podle textu návrhu má roli zřizovatele vykonávat ÚNMZ a provozovatelem má být Česká agentura pro standardizaci. Odborná shrnutí doplňují, že má jít o nástroj určený zejména pro malé a střední podniky a že umožní testovat v reálném prostředí se skutečnými klienty.
Velmi praktická je jedna právní drobnost, která často uniká: účast v sandboxu nemá vznikat „nárokově“. Naopak se počítá s tím, že účast vznikne až na základě smlouvy a samotné podání žádosti/nabídky neznamená automatické přijetí; podmínky a kritéria zveřejní provozovatel.
Pro firmy to znamená, že sandbox může být strategický „most“ mezi vývojem a trhem, ale je potřeba počítat s výběrovými kritérii a smluvním nastavením (odpovědnosti, data, mlčenlivost, režim testování).
Tip na článek
Tip: Zaskočilo vás, že po vás právník žádá ověřený podpis, kopii občanky a informace o vašem příjmu? Nejste sami. Podle tzv. AML zákona však tyto kroky nejsou libovůlí advokáta. Co dalšího byste měli vědět o AML zákoně?
Sankce, upozornění a přestupky: Co hrozí při porušení pravidel
AI Act obsahuje vysoké pokuty a obecně přísný sankční rámec. Český návrh zákona na to navazuje tím, že doplňuje procesní a institucionální stránku vymáhání: kdo přestupky projednává, kdo pokutu vybírá, jak běží promlčení apod.
Z odborného shrnutí plyne užitečný „měkčí“ mezikrok: pokud někdo porušuje povinnost méně závažně, může ho dozorový orgán nejprve upozornit a vyzvat k nápravě, přičemž lhůta k nápravě nemá být kratší než 15 dnů od doručení upozornění.
To je pro compliance v praxi důležité: dává to prostor napravit chybu (např. doplnit dokumentaci, upravit interní proces, zlepšit informování uživatelů) dřív, než se jede „sankční“ režim naplno.
Samotný návrh pak řeší i technické detaily, které v reálném životě rozhodují:
- promlčecí doba 5 let (s absolutní hranicí 8 let při přerušení),
- přepočet pokuty do Kč podle kurzu ČNB a zaokrouhlení na celé koruny nahoru
- a také koordinaci dat pro reporting o pokutách.
Jednoduše: český zákon má být „návod k použití“ sankční části AI Actu na českém území – kdo, jak a v jakém řízení.
Co to znamená pro firmy a zaměstnavatele
Pokud jste firma, AI Act se vás může týkat hned v několika rolích: můžete být poskytovatel (vyvíjíte nebo uvádíte AI na trh), nasazovatel/provozovatel (používáte AI ve firmě), případně dovozce/distributor. Český návrh zákona vám sice nepřidá „nové technické povinnosti“ navíc (ty jsou v AI Actu), ale zásadně mění dvě věci:
- Budete mít konkrétní české úřady, se kterými se reálně potkáte (kontrola, dotazy, řízení, povolení testování/provozu).
- Získáte možnost (a někdy nutnost) řešit věci „procedurálně“: žádost, plán testování, lhůty, doplnění podkladů, reakce na výzvy, komunikace mezi úřady.
Příklady:
Firma nasadí nástroj, který třídí CV a doporučuje kandidáty. Pokud spadne do režimu vysoce rizikové AI, nestačí „že to funguje“. Budete řešit interní dokumentaci, řízení rizik, transparentnost vůči uchazečům – a v praxi i to, kdo je váš dozorový orgán, pokud přijde podnět (v některých scénářích může hrát roli i ÚOOÚ).
Banka nebo fintech používá AI pro vyhodnocování bonity. Tady je realistické, že dozor bude spadat pod ČNB, protože jde o subjekt podléhající jejímu dohledu. Chyba, kterou vídáme nejčastěji: produktový tým řeší jen „model“, ale neřeší právně roli organizace (kdo je poskytovatel, kdo nasazovatel) a kdo nese odpovědnost za compliance.
Checklist: Co udělat už teď
- Udělejte si interní inventuru AI: kde AI používáme, k čemu, s jakými daty, kdo je dodavatel.
- Určete role: jsme poskytovatel/nasazovatel/dovozce? (může být kombinace).
- U rizikovějších použití připravte podklady pro případné řízení o testování (plán testování, dopady, kontrolní mechanismy).
- Zaveďte „evidence-ready“ proces: ať umíte rychle reagovat na výzvu úřadu a doložit, co děláte a proč.
MPO zároveň veřejně počítá s tím, že návrh zákona by mohl být účinný v průběhu roku 2026 (záleží na průběhu legislativního procesu).
Shrnutí
Český návrh zákona o umělé inteligenci je tzv. adaptačním zákonem k evropskému AI Actu, který v Česku nastaví především praktická pravidla dohledu, řízení a vymáhání povinností, nikoli nové technické požadavky na samotnou AI; určí hlavní dozorové orgány (zejména Český telekomunikační úřad jako jednotné kontaktní místo, dále ČNB pro finanční sektor a ÚOOÚ pro oblast ochrany osobních údajů), upraví procesy pro povolování provozu a testování vysoce rizikových systémů AI v reálných podmínkách s pevnými lhůtami (typicky 90 až 120 dnů), zavede regulační sandbox jako kontrolované prostředí pro bezpečné testování inovací, stanoví pravidla pro přestupky a sankce včetně možnosti nejprve vyzvat k nápravě a teprve následně ukládat pokuty a zároveň dá firmám i veřejným institucím jasnější právní rámec, s kým a jak budou v praxi komunikovat, pokud AI vyvíjejí, nasazují nebo používají; účinnost zákona se očekává v průběhu roku 2026 a jeho hlavním cílem je zajistit vymahatelnost AI Actu v českém prostředí bez zbytečné administrativní zátěže.
Často kladené dotazy
Je český návrh zákona „implementací“ AI Actu?
V běžné řeči ano, ale právně je přesnější říkat „adaptační“ zákon. AI Act jako nařízení EU platí přímo; český zákon má doplnit hlavně institucionální a procesní stránku (dozor, řízení, sankce, sandbox).
Kdo bude hlavní dozorový orgán?
Návrh počítá s tím, že primární roli a jednotné kontaktní místo bude mít Český telekomunikační úřad, s doplňkovými rolemi ČNB a ÚOOÚ.
Kdy může být potřeba povolení pro vysoce rizikovou AI?
Návrh řeší procesy pro výjimečné situace, kdy se povoluje provoz vysoce rizikové AI i bez posouzení shody, a také schvalování testování v reálných podmínkách.
Jak dlouho mohou tato řízení trvat?
Odborná shrnutí i návrh pracují s orientačními lhůtami: u testování typicky do 90 dnů ve zvlášť složitých případech, u povolení provozu do 120 dnů.
Co je regulační sandbox a kdo ho bude provozovat?
Sandbox má být kontrolované testovací prostředí. Návrh počítá s tím, že zřizovatelem bude ÚNMZ a provozovatelem Česká agentura pro standardizaci; účast má být smluvní a nenároková.
Hrozí mi hned pokuta, když udělám chybu?
Návrh počítá i s „měkčím“ postupem: u méně závažného porušení může dozorový orgán nejprve upozornit a dát přiměřenou lhůtu k nápravě (minimálně 15 dnů). Pak teprve přichází na řadu přestupkové/sankční mechanismy.
Kdy to začne platit?
V odborných shrnutích i komunikaci kolem návrhu se očekává účinnost v průběhu roku 2026, ale přesné datum bude záviset na legislativním procesu.