S rychlou adopcí umělé inteligence v právní praxi roste i riziko jejího nezodpovědného použití, jak upozorňuje SEDLAKOVA LEGAL: AI Act a tech firmy: Jak splnit nové povinnosti a vyhnout se pokutám. Nadšení z technologických možností nesmí zastínit obezřetnost, která je pro advokáty klíčová. Implementace AI je jen další oblastí risk managementu, podobně jako řešíte finanční rizika nebo správnost údajů ve veřejných rejstřících (ARROWS, advokátní kancelář: Advokát vs. Algoritmus: Proč synergie člověka a AI není sci-fi, ale vaše největší konkurenční výhoda).
Tento článek Vám poskytne praktický a věcný checklist, který Vám pomůže nastavit základní bezpečnostní standardy a minimalizovat rizika spojená s využíváním AI nástrojů pro práci s citlivými klientskými dokumenty.
Základní hrozby, které AI může zesílit
Kybernetické hrozby nejsou nové, ale AI jim může dát novou dimenzi. Sofistikovanější phishingové útoky, které je obtížnější rozeznat, nebo zneužití kompromitovaných účtů jsou dnes reálnější než kdy dříve. Pro právní profesionály je kritické uvědomit si, že nejslabším článkem je často lidský faktor a základní digitální hygiena.
Phishing a kompromitace e-mailových účtů
Úspěšný phishingový útok na e-mailovou schránku advokáta může mít fatální následky. Nejde jen o únik komunikace, ale o potenciální ztrátu kontroly nad celou digitální identitou a přístup k systémům, které s e-mailem pracují – včetně AI asistentů jako je Konfido. Zabezpečení e-mailu je proto naprosto zásadní.
Slabá hesla a absence dvoufázového ověření (2FA)
Používání jednoduchých nebo opakujících se hesel je stále rozšířeným nešvarem. V kombinaci s absencí dvoufázového ověření (2FA) se jedná o otevřené dveře pro neoprávněný přístup. Vaše e-mailová schránka je hlavním klíčem k Vašim datům. Pokud ji nezabezpečíte, veškerá další bezpečnostní opatření ztrácejí na významu.
Pokyn pro ověření:
Zkontrolujte nastavení dvoufázového ověření (2FA) u svého e-mailového poskytovatele (např. Microsoft 365, Google Workspace). Aktivace Vám zabere několik minut, ale dramaticky zvýší úroveň zabezpečení Vašeho účtu a všech služeb, které jsou na něj napojeny.
Na co se ptát dodavatele AI řešení?
Při výběru AI nástroje pro práci s citlivými dokumenty je nutné provést důkladnou prověrku dodavatele. Nejde jen o funkčnost, ale především o bezpečnost a soulad s regulacemi. Stejně jako prověřujete data pro trénink modelu (epravo.cz: Právo a umělé inteligence: AI Act, osobní údaje, kyberbezpečnost), prověřujte i svého technologického partnera.
Zde jsou klíčové otázky, které byste měli položit:
- Jak nakládáte s mými daty a dokumenty? Jsou má data používána k trénování Vašich modelů? Jsou logicky a fyzicky oddělena od dat ostatních klientů?
- Kde jsou data fyzicky uložena? V jaké jurisdikci se nacházejí servery? Splňuje umístění serverů požadavky GDPR a dalších relevantních předpisů? Více o tomto tématu naleznete v našem článku Data v cloudu: Fakta vs. mýty o bezpečnosti pro právní praxi.
- Jakým způsobem zajišťujete soulad s GDPR a AI Actem? Pokud systémy pracují s osobními údaji, musíte dodržet všechny povinnosti ochrany dat (SEDLAKOVA LEGAL: AI Act a tech firmy: Jak splnit nové povinnosti a vyhnout se pokutám). Dodavatel by měl být schopen transparentně doložit, jak plní regulatorní požadavky.
- Jaká bezpečnostní opatření používáte? Zajímejte se o šifrování dat (při přenosu i v klidu), politiku přístupů a pravidelné bezpečnostní audity.
- Jaká je Vaše politika reakce na bezpečnostní incidenty? Co se stane v případě úniku dat? Jak rychle budete informovat své klienty a jaké kroky podniknete k nápravě?
Odpovědi na tyto otázky Vám pomohou posoudit důvěryhodnost dodavatele. Podrobnější návod naleznete v článku Jak vybrat důvěryhodného dodavatele AI řešení pro právní praxi.
5 kroků, které můžete pro zvýšení bezpečnosti udělat ještě dnes
Zabezpečení práce s AI není jednorázový projekt, ale nepřetržitý proces. Následujících pět kroků představuje robustní základ, který můžete implementovat okamžitě.
1. Aktivujte dvoufázové ověření (2FA) všude, kde je to možné
Jak již bylo zmíněno, Váš e-mail je centrálním bodem. Aktivujte 2FA nejen pro něj, ale i pro všechny cloudové služby a další klíčové systémy, které používáte pro správu dokumentů.
2. Vytvořte a komunikujte interní politiku pro používání AI
Systematický přístup je nezbytný. Prvním krokem je zmapování, jaké AI nástroje se ve Vaší kanceláři již používají (ARROWS, advokátní kancelář: Zaměstnanci a AI nástroje: jak právně ošetřit využívání umělé inteligence v práci). Následně definujte jasná pravidla: - Klasifikujte data podle citlivosti: Určete, která data nesmí za žádných okolností opustit Vaše systémy a která lze vkládat do schválených externích nástrojů (SEDLAKOVA LEGAL: AI Act a tech firmy: Jak splnit nové povinnosti a vyhnout se pokutám). - Vytvořte seznam schválených a zakázaných nástrojů: Zaměstnavatel má právo určit, jaké nástroje mohou zaměstnanci používat (ARROWS, advokátní kancelář: Zaměstnanci a AI nástroje: jak právně ošetřit využívání umělé inteligence v práci). - Stanovte odpovědnost: Jasně definujte, kdo je odpovědný za dodržování pravidel a kdo schvaluje používání nových nástrojů.
3. Pravidelně školte svůj tým
Technologie je jen polovina úspěchu. Tou druhou je informovaný uživatel. Zajistěte, aby Vaši kolegové a zaměstnanci byli školeni o správném a bezpečném používání AI nástrojů a znali interní pravidla (VIA IURIS: GDPR v kanceláři: Na co si dát pozor při provozu firmy?). Školení by mělo pokrývat rozpoznávání phishingu, zásady práce s hesly a pravidla pro sdílení citlivých informací.
REÁLNÝ SCÉNÁŘ: Koncipient v časové tísni vloží část citlivé smlouvy do veřejného online překladače nebo AI chatbota, aby si ověřil formulaci. Tím nevědomky poskytne citlivá data třetí straně, která je může využít k trénování svého modelu. Jasně definovaná interní politika a pravidelné školení mohou takovým incidentům předejít.
4. Používejte výhradně bezpečné kanály pro sdílení dokumentů
Pro zasílání dokumentů do AI systémů, jako je Konfido, vždy používejte zabezpečený firemní e-mail. Vyvarujte se používání soukromých účtů nebo nezabezpečených veřejných Wi-Fi sítí pro práci s klientskými daty.
5. Vždy ověřujte výstupy a zachovejte lidský dohled
Bezpečnost není jen o ochraně dat na vstupu, ale i o řízení rizik na výstupu. AI je asistent, nikoli náhrada právního experta. Každý výstup z AI nástroje musí projít lidskou kontrolou a ověřením. To je princip, který nazýváme Human in the loop: Proč AI v právu nerozhoduje za vás. U nástrojů jako Konfido tento proces usnadňují citace, které transparentně odkazují na zdrojovou informaci v dokumentu a umožňují rychlé ověření. Více o významu citací si můžete přečíst v našem článku Transparentní právní analýza: Proč jsou citace v Konfidu klíčem k důvěře.
Závěr: Bezpečnost není překážka, ale základní předpoklad
Využívání umělé inteligence je pro moderní právní praxi ekonomickou nutností. Není však možné ignorovat s tím spojená rizika. Důsledné dodržování základních principů kybernetické bezpečnosti není překážkou efektivity, ale jejím nezbytným předpokladem. Zavedením popsaných opatření nejen ochráníte citlivá data svých klientů, ale také vybudujete udržitelný a bezpečný základ pro integraci AI do Vašich pracovních postupů.
Spočítejte si návratnost nasazení Konfida
Zjistěte, jak může bezpečné nasazení AI zvýšit efektivitu a ziskovost Vaší kanceláře.
Zjistit víceZdroje a použitá literatura
- SEDLAKOVA LEGAL: AI Act a tech firmy: Jak splnit nové povinnosti a vyhnout se pokutám
- ARROWS, advokátní kancelář: Advokát vs. Algoritmus: Proč synergie člověka a AI není sci-fi, ale vaše největší konkurenční výhoda
- ARROWS, advokátní kancelář: Zaměstnanci a AI nástroje: jak právně ošetřit využívání umělé inteligence v práci
- epravo.cz: Právo a umělé inteligence: AI Act, osobní údaje, kyberbezpečnost
- VIA IURIS: GDPR v kanceláři: Na co si dát pozor při provozu firmy?