Využívání umělé inteligence se v profesionálních službách stává standardem pro udržení konkurenceschopnosti (SEDLAKOVA LEGAL). S rostoucí adopcí těchto nástrojů však přichází i potřeba jasných pravidel. Evropská unie na tuto výzvu reaguje nařízením o umělé inteligenci, známým jako AI Act, které má za cíl vytvořit harmonizovaný právní rámec pro vývoj a používání AI systémů (MT Legal).

Pro advokáty a právníky, kteří zvažují nebo již využívají AI pro analýzu dokumentů či rešerše, je klíčové porozumět, jaké dopady tato regulace přináší. Tento článek Vám poskytne věcný přehled povinností, které se týkají především Vás jakožto uživatelů.

Co je AI Act a proč vznikl?

AI Act je komplexní evropské nařízení, jehož návrh Komise představila již v dubnu 2021 (Asociace komerčních televizí). Jeho hlavním cílem je zajistit, aby systémy umělé inteligence uváděné na trh a používané v Unii byly bezpečné a respektovaly základní práva a hodnoty EU (Právní prostor).

Regulace definuje systém AI jako „strojový systém navržený tak, aby fungoval s různou úrovní autonomie a který může vykazovat adaptivitu a který pro explicitní nebo implicitní cíle odvodí ze vstupů, které obdrží, jak generovat výstupy, jako jsou předpovědi, obsah, doporučení nebo rozhodnutí, která mohou ovlivnit fyzické nebo virtuální prostředí“ (epravo.cz).

Nařízení zavádí přístup založený na riziku. Jinými slovy, čím vyšší je potenciální riziko daného AI systému pro zdraví, bezpečnost nebo základní práva osob, tím přísnější jsou pravidla.

Kategorie rizik: Kde se nachází nástroje jako Konfido?

AI Act rozděluje systémy umělé inteligence do několika kategorií, od kterých se odvíjí míra regulace.

1. Nepřijatelné riziko

Sem spadají systémy, které jsou v EU zcela zakázány. Jde například o AI používanou pro sociální skórování ze strany veřejných orgánů, manipulativní techniky ovlivňující chování s cílem způsobit újmu nebo biometrické sledování na dálku v reálném čase pro účely vymáhání práva (s úzkými výjimkami) (Asociace komerčních televizí).

2. Vysoké riziko

Tato kategorie zahrnuje AI systémy používané v citlivých oblastech, kde mohou mít významný dopad na životy lidí. Příklady zahrnují AI v personalistice pro posuzování životopisů, systémy pro hodnocení úvěruschopnosti nebo algoritmy rozhodující o přijetí ke studiu (SEDLAKOVA LEGAL). Na tyto systémy se vztahují nejpřísnější povinnosti týkající se řízení rizik, kvality dat, transparentnosti a lidského dohledu.

3. Omezené riziko

Do této kategorie patří systémy, u kterých je klíčová transparentnost. Uživatelé musí být informováni, že interagují s umělou inteligencí. Typickým příkladem jsou chatboti nebo systémy generující deepfake obsah, který musí být jasně označen jako uměle vytvořený (Právní prostor).

4. Minimální nebo žádné riziko

Zde se nachází naprostá většina AI systémů používaných v EU, včetně nástrojů jako Konfido. Jedná se o systémy pro zvýšení efektivity, jako jsou AI asistenti pro analýzu dokumentů, spamové filtry nebo doporučovací systémy. Podle serveru GDPR.cz lze tyto systémy uvádět na trh a používat bez dodatečných povinností nad rámec stávajících právních předpisů, jako je GDPR (GDPR.cz).

Nástroje jako Konfido, které slouží k analýze a sumarizaci Vámi dodaných dokumentů prostřednictvím e-mailu a nedělají autonomní rozhodnutí v rizikových oblastech, spadají právě do této kategorie s minimálním rizikem.

Rozdělení odpovědnosti: Poskytovatel vs. Uživatel

AI Act precizně rozděluje odpovědnost mezi různé subjekty v hodnotovém řetězci. Pro Vaši praxi je zásadní rozumět rozdílu mezi poskytovatelem a uživatelem (ARROWS, advokátní kancelář).

Povinnosti poskytovatele

Poskytovatel (např. společnost vyvíjející Konfido) je subjekt, který vyvíjí AI systém a uvádí jej na trh. Nese hlavní tíhu regulatorních povinností, zejména u vysoce rizikových systémů. Mezi jeho klíčové úkoly patří zajištění souladu systému s nařízením, vytvoření technické dokumentace, implementace systému řízení rizik a zajištění transparentnosti a robustnosti.

Povinnosti uživatele (Vaše povinnosti)

Uživatel je fyzická nebo právnická osoba, která používá AI systém v rámci své profesní činnosti. I když využíváte systém s minimálním rizikem, stále máte určité povinnosti vyplývající z profesní odpovědnosti a dalších předpisů:

  1. Používat systém v souladu s pokyny: Je Vaší povinností seznámit se s dokumentací a používat nástroj k účelu, pro který byl navržen.
  2. Zajistit lidský dohled: AI je nástroj, nikoli náhrada Vašeho úsudku. Odpovědnost za finální právní radu nebo výstup pro klienta nesete vždy Vy. Systém může připravit podklady, ale jejich interpretace a ověření je na Vás. Toto je princip lidského dohledu (human-in-the-loop), který je zásadní.
  3. Dodržovat ochranu dat: Pokud prostřednictvím AI nástroje zpracováváte osobní údaje, musíte plně dodržovat povinnosti dle GDPR, jako je existence právního titulu a plnění informační povinnosti (SEDLAKOVA LEGAL). Více informací naleznete v našem článku o GDPR a AI.

REÁLNÝ SCÉNÁŘ: Advokátní kancelář používá interní AI nástroj pro předběžné posouzení úspěšnosti nových případů (což může být vysoce rizikové). V takovém případě se na ni vztahují povinnosti uživatele vysoce rizikového systému, včetně zajištění kompetentního lidského dohledu a monitorování fungování systému (ARROWS, advokátní kancelář). Naopak, při použití Konfida pro sumarizaci spisu (minimální riziko) jsou tyto formální povinnosti dle AI Actu výrazně nižší.

Musím klientům oznamovat, že používám AI?

Toto je jedna z nejčastějších otázek. AI Act explicitně ukládá povinnost transparentnosti primárně u systémů s omezeným rizikem (chatboti, deepfakes) a u vysoce rizikových systémů.

Pro nástroje s minimálním rizikem, které používáte interně ke zefektivnění své práce (jako je analýza dokumentů), AI Act přímou povinnost informovat klienta nestanoví. Nicméně, jak uvádí odborná analýza na portálu epravo.cz, klíčové je dodržení povinnosti mlčenlivosti a zajištění, že použitý systém neohrozí data klienta (epravo.cz).

Praktické dopady pro Vaši praxi

AI Act pro uživatele nástrojů jako Konfido nepřináší revoluční administrativní zátěž. Spíše formalizuje principy, které by měly být samozřejmostí:

  • Výběr důvěryhodného dodavatele: Klíčovým krokem je vybrat si partnera, který rozumí specifikům právního prostředí a garantuje soulad s legislativou, zejména v oblasti bezpečnosti a ochrany dat. Přečtěte si, jak vybrat důvěryhodného dodavatele AI řešení.
  • Zachování profesní odpovědnosti: AI je Váš inteligentní asistent, nikoli kolega. Finální odpovědnost za výstup vůči klientovi zůstává plně ve Vašich rukou.
  • Vytvoření interních pravidel: Je vhodné ve Vaší kanceláři nastavit jasná pravidla pro používání AI nástrojů a klasifikovat data podle citlivosti, aby bylo zřejmé, které informace lze do systémů vkládat (SEDLAKOVA LEGAL).

AI Act představuje logický krok k zajištění důvěryhodného a bezpečného prostředí pro umělou inteligenci v Evropě. Pro advokáty a právníky využívající nástroje s minimálním rizikem se nejedná o překážku, ale spíše o potvrzení důležitosti pečlivého výběru technologií a zachování principu lidského dohledu.

Spočítejte si návratnost nasazení Konfida

Zjistěte, kolik času a nákladů můžete ušetřit bezpečným a efektivním nasazením AI ve vaší praxi.

Zjistit více

Zdroje a použitá literatura