Od 2. srpna začne na území Evropské unie platit řada pravidel pro všechny, kteří používají nějakou formu obsahu generovaného umělou inteligencí. Jedná se o tzv. povinnost transparentnosti, která ukládá vývojářům, dodavatelům a provozovatelům AI systémů nařízení EU o umělé inteligenci (AI Act) přijaté v roce 2024. Nyní tak končí přechodné období, pravidla budou závazná a vymahatelná pod hrozbou pokuty.
I když definitivní verze bude představena v červnu, už nyní je z návrhu Evropské komise (europa.eu) jasné, co se zhruba bude vyžadovat. Největší dopad bude mít článek 50, který říká, že musí být označené a odlišené, co vytvořil člověk a co stroj.
- Jakýkoli obrazový, zvukový nebo video obsah, který vypadá jako skutečný, ale je vytvořený nebo upravený AI (např. tvář politika v jiném kontextu), musí být jasně a viditelně označen.
- Pokud publikujete texty vytvořené AI za účelem informování veřejnosti o věcech veřejného zájmu (např. zprávy, články, analýzy), musíte přiznat, že autorem je AI. Výjimkou je situace, kdy text prošel lidskou redakční kontrolou a člověk za něj nese plnou odpovědnost.
- Pokud provozujete chatbota, například jako součást zákaznické podpory, uživatel musí od prvního momentu vědět, že mluví s umělou inteligencí, nikoliv s člověkem.
Ještě přísnější pravidla budou platit pro tzv. Vysoce rizikové systémy (např. AI v náboru zaměstnanců, hodnocení úvěruschopnosti, ve školství nebo u kritické infrastruktury). Po jejich provozovatelích se bude mimo jiné vyžadovat následující:
- Musí vést podrobné záznamy o tom, jak systém funguje.
- Systém nesmí běžet zcela automaticky, vždy musí existovat mechanismus, jak může člověk zasáhnout.
- Data použitá k trénování nesmí být předpojatá (diskriminační).
Za porušení pravidel transparentnosti (neoznačení AI obsahu) hrozí pokuta až 15 milionů EUR nebo 3 % z celosvětového obratu. Pro malé a střední podniky jsou tyto stropy nastaveny mírněji, ale stále citelně. Tuto pravomoc budou vymáhat národní dozorové úřady, v Česku to bude nejspíše ČTÚ.

