Umělá inteligence (AI) se stává běžnou součástí profesionálních služeb, od advokacie přes daňové poradenství až po HR. Mnoho firem se snaží být „AI-first“ pro zvýšení efektivity. S rychlou adopcí však rostou i rizika a etické otazníky, jak ostatně reflektuje i diskuse kolem evropského AI Actu (SEDLAKOVA LEGAL: AI Act a tech firmy: Jak splnit nové povinnosti a vyhnout se pokutám). Kde leží hranice mezi efektivním nástrojem a nezodpovědným přenesením odpovědnosti na stroj? Tento článek analyzuje klíčové etické principy a odpovědnostní rámce, které by měly vést profesionály při integraci AI do jejich služeb.

AI jako nástroj, nikoli náhrada odborníka

Zásadním východiskem pro jakoukoli etickou diskuzi je pochopení role umělé inteligence. AI má být nástrojem odborníka, nikoli jeho náhradou. Jak zdůrazňuje Advokátní deník: Regulace, AI a advokacie – zákulisí legislativy a advokátních inovací, základní principy profese, jako je ochrana důvěrnosti a lidská kontrola, platí i při použití nových technologií.

AI systémy mohou vynikat v analýze velkých objemů dat, rešerších nebo sumarizacích, avšak postrádají lidský úsudek, kontextuální chápání a etické cítění. Konečné rozhodnutí a plná odpovědnost za výsledek musí vždy zůstat na člověku. Legislativa, jako je například evropský AI Act, na tento princip pamatuje a stanovuje, že u vysoce rizikových systémů musí konečné rozhodnutí učinit člověk (ARROWS, advokátní kancelář: Zaměstnanci a AI nástroje: jak právně ošetřit využívání umělé inteligence v práci). Vaše profesní odpovědnost však sahá mnohem dál než jen k plnění zákonných minim. Klíčem je aktivní lidský dohled a kontrola nad celým procesem.

Transparentnost vůči klientovi: Informovat, či neinformovat?

Jednou z nejčastějších otázek je, zda a jak informovat klienta o používání AI nástrojů. Je nutný výslovný souhlas? Odpověď není jednoznačná a závisí na povaze použitého nástroje a zpracovávaných datech.

Podle některých právních názorů je obstarání výslovného souhlasu nadbytečné, pokud je plně zajištěna povinnost mlčenlivosti a použití AI nemá přímý dopad na klientské údaje (ePravo.cz: K právní regulaci AI a některým požadavkům kladeným na advokáty v souvislosti s tím). Používáte-li AI pro interní rešerše v anonymizovaných datech nebo pro obecnou administrativu, dopad na klienta je minimální.

Problém nastává, pokud do AI nástroje vkládáte citlivé klientské informace. Zde je riziko porušení mlčenlivosti a ochrany osobních údajů enormní, zejména u veřejně dostupných modelů. MACEK.LEGAL: JAK PRACOVAT S AI Z PRÁVNÍHO HLEDISKA? varuje, že je nutné minimalizovat riziko úniku neveřejných informací.

Doporučený postup: 1. Priorita bezpečnosti: Používejte výhradně zabezpečené AI nástroje navržené pro profesionální sféru, které garantují izolaci vašich dat a nepoužívají je k trénování veřejných modelů. 2. Obecná informovanost: Zvažte zahrnutí obecné klauzule do vašich smluvních podmínek, která informuje klienty o využívání moderních technologií (včetně AI) za účelem zvýšení efektivity služeb, vždy při zachování plné důvěrnosti. 3. Zaměření na přínos: Komunikujte použití AI jako benefit pro klienta – rychlejší zpracování, nižší náklady, přesnější analýza. Důvěra se buduje transparentností o přínosech, nikoli skrýváním nástrojů.

Odpovědnost za výstupy: Nikdy slepě nevěřte stroji

Největším etickým selháním je nekritické přebírání výstupů z AI. Umělá inteligence může generovat fakticky nesprávné nebo zavádějící informace, tzv. halucinace AI. Jak trefně shrnuje titulek jednoho z komentářů: „Nikdy jí nevěřte“ (Seznam Zprávy: Komentář: AI už využívají i právníci, ale stále platí – nikdy jí nevěřte).

Vaší profesní povinností je každý výstup ověřit. To je prakticky nemožné u nástrojů, které neuvádějí své zdroje. Proto je pro etické použití AI klíčová funkce citací. Systémy jako Konfido, které u každé odpovědi uvádějí přesnou stránku a dokument, z něhož informace pochází, transformují AI z "černé skříňky" na transparentní nástroj. Tato důvěryhodnost díky citacím umožňuje rychlou a efektivní verifikaci.

REÁLNÝ SCÉNÁŘ: Dva přístupy k analýze spisu

Advokát A (Nezodpovědný přístup): Pro rychlou analýzu rozsáhlého spisu nahraje několik citlivých dokumentů do veřejně dostupného online nástroje. Získá shrnutí, které bez ověření použije v podání pro soud. Nejenže riskuje únik klientských dat, ale také se spoléhá na výstup, který může obsahovat faktické chyby bez možnosti kontroly zdroje.

Advokát B (Etický přístup): Stejné dokumenty odešle e-mailem do zabezpečeného systému Konfido. Na své dotazy obdrží odpovědi, kde je každé tvrzení podloženo odkazem na konkrétní stranu v konkrétním dokumentu. Výstupy rychle ověří, identifikuje klíčové pasáže a připraví kvalitní podání. Pracuje efektivněji, bezpečně a plně v souladu se svou profesní odpovědností.

Etické minimum pro profesionální použití AI

Pro zajištění odpovědného a etického využívání umělé inteligence doporučujeme dodržovat následující zásady, které tvoří základ „AI compliance“ (Digitální a informační agentura: AI a právo – Katalog využití umělé inteligence ve veřejném sektoru):

  1. Plná odpovědnost: Vždy pamatujte, že za finální práci a její správnost ručíte vy, nikoli technologie. Lidská kontrola je nezbytná (Advokátní deník: Regulace, AI a advokacie – zákulisí legislativy a advokátních inovací).
  2. Důvěrnost a bezpečnost dat: Nikdy nevkládejte klientská data do nezabezpečených nebo veřejných AI systémů. Důsledně si prověřte dodavatele technologie a jeho bezpečnostní standardy. Výběr důvěryhodného dodavatele AI řešení je prvním krokem k etickému použití.
  3. Ověřitelnost výstupů: Preferujte nástroje, které poskytují jasné a dohledatelné zdroje pro svá tvrzení. Bez možnosti verifikace se vystavujete nepřijatelnému profesnímu riziku.
  4. Soulad s legislativou: Ujistěte se, že zpracování dat pomocí AI je v souladu s platnými předpisy, zejména GDPR a AI Act. Pamatujte, že pokud AI pracuje s osobními údaji, musíte mít platný právní titul a plnit informační povinnost (ePravo.cz: Právo a umělé inteligence: AI Act, osobní údaje, kyberbezpečnost).
  5. Kompetence: Vzdělávejte se v možnostech a limitech nástrojů, které používáte. Porozumění technologii je předpokladem pro její správné a etické nasazení.

Etické používání AI není překážkou pro efektivitu – je jejím předpokladem. Nástroje, které jsou navrženy s ohledem na bezpečnost, transparentnost a ověřitelnost, nejen zvyšují produktivitu, ale také posilují důvěru klientů a chrání vaši profesní integritu.

Spočítejte si návratnost nasazení bezpečného AI asistenta

Zjistěte, jak může eticky navržený nástroj zvýšit efektivitu vaší kanceláře a zároveň posílit důvěru klientů.

Zjistit více

Zdroje a použitá literatura