Umělá inteligence proniká do všech oblastí života, včetně biometrické identifikace. Tato technologie pomáhá ověřovat totožnost na základě fyzických nebo behaviorálních znaků – od odemykání telefonu obličejem až po kamery v obchodech sledující podezřelé chování. I když to přináší spoustu výhod, z nichž nejdůležitější je zvýšení bezpečnosti, není to bez rizik. Především pokud jde o ochranu soukromí. I proto přichází evropská regulace v podobě AI Act, který jasně říká, co je povoleno a co už je přes čáru. Přinášíme přehled toho, na co si musí vývojáři AI systémů dát pozor, aby se nedostali do křížku se zákonem.
Biometrická identifikace je proces, kdy AI rozpoznává osoby podle fyzických nebo behaviorálních znaků – obličej, hlas, chůze nebo dokonce způsob psaní na klávesnici. Typickým příkladem jsou kamery na letištích porovnávající obličeje cestujících s pasovými databázemi, otisky prstů v mobilních telefonech, nebo systémy v bankách sledující podezřelé chování.
Máte obavy, jestli vaše AI řešení odpovídá novým regulacím? Chcete se vyhnout potenciálním pokutám? Raději nám napište, probereme to. 💡
Nařízení o umělé inteligenci (AI Act) stanovuje pravidla pro používání AI v různých oblastech a zohledňuje rizika, která mohou technologie představovat pro jednotlivce a společnost jako celek. U biometrické identifikace je klíčové to, že technologie, které vykazují vysoké riziko pro soukromí nebo mohou vést k diskriminaci, podléhají přísné regulaci.
AI Act zavádí několik důležitých pravidel, na která by měly firmy při vývoji těchto technologií dbát.
AI systémy nesmí být používány k rozpoznávání emocí v pracovních a vzdělávacích institucích. Důvod? Mohlo by to narušit soukromí zaměstnanců a studentů a vystavit je psychologickému tlaku.
Přípustné výjimky:
Příklad z praxe:
Používání webkamer a systémů pro rozpoznávání hlasu call centrem ke sledování emocí svých zaměstnanců, například hněvu, je zakázáno. Pokud jsou ale systémy pro rozpoznávání emocí používány pouze pro účely osobního školení, jejich použití je povoleno, pokud výsledky nejsou sdíleny s osobami odpovědnými za HR a nemohou tak ovlivnit hodnocení nebo povýšení školené osoby.
Potřebujete poradit po právní stránce s vaším softwarem? 💻 Na IT právo jsme dobří.
AI Act zakazuje používání systémů biometrické identifikace v reálném čase na veřejně přístupných místech za účelem vymáhání práva. Tyto systémy totiž mohou narušovat soukromí velké části populace a odrazovat od svobody shromažďování. Mluvíme o ulicích, nákupních centrech, veřejné dopravě apod.
Výjimky z tohoto zákazu:
Příklad z praxe:
Pokud je například uneseno dítě a existují konkrétní indicie, že únosce má v úmyslu přepravit dítě z jednoho místa na druhé automobilem, policie může použít systém rozpoznávání biometrických údajů v reálném čase (RBI) pro cílené pátrání po tomto dítěti. Musí však stanovit obvod nasazení a dobu použití systému za účelem identifikace dítěte.
Je zakázáno používat AI systémy, které by předpovídaly páchání trestné činnosti výhradně na základě profilování osobnosti nebo osobnostních rysů. Cílem je zabránit diskriminaci a nepodloženému předvídání kriminality.
Co je ale povoleno:
Systémy, které analyzují objektivní a ověřitelné skutečnosti související s konkrétním chováním – například monitoring skutečného podezřelého chování v obchodě, které ale následně zkontroluje člověk.
Příklad z praxe:
Použití AI pro posouzení rizika spáchání trestného činu na základě historických dat je zakázáno. Ale pokud je systém AI použit pro kategorizaci skutečného chování, například podezřelého chování v davu, kdy se někdo připravuje a je pravděpodobné, že spáchá trestný čin, a kdy lidský operátor posuzuje výstup klasifikace provedené AI. V tomto případě není hodnocení rizika provedené člověkem za podpory AI založeno výhradně na osobnostních rysech nebo profilování, ale na objektivních a ověřitelných skutečnostech spojených s hrozícím trestným chováním dané osoby, které byly přezkoumány člověkem před přijetím opatření.
Potřebujete právní pomoc při implementaci AI v biometrické identifikaci? To zvládneme. Bookněte si schůzku přes Calendly. 📲
AI Act zakazuje systémy, které kategorizují osoby podle biometrických údajů za účelem odvození rasy, politických názorů, náboženského přesvědčení, sexuální orientace nebo dalších citlivých charakteristik.
Chyby se v tomto případě opravdu nevyplácí. Nedodržení těchto zákazů se považuje za nejzávažnější porušení AI Actu. Poskytovatelé a nasazovatelé zakázaných AI systémů mohou čelit pokutám až do výše 35 000 000 EUR nebo 7 % celkového ročního obratu. V Česku však zatím pokuty nehrozí, protože ke dni sepsání tohoto článku stále čekáme na přijetí vlastního předpisu o AI.
Vývoj AI technologií běží na plné obrátky, ale právní rámec se teprve usazuje. Pokud vyvíjíte nebo implementujete AI do systémů biometrické identifikace, vždycky si pohlídejte tyto 4 body:
1. Ověřte účel použití, zda nespadá do některé ze zakázaných kategorií.
2. Zajistěte soulad s výjimkami, pokud vyvíjíte systém spadající do výjimek, musíte splnit přísné podmínky.
3. Implementujte lidský dohled, u vysoce rizikových systémů je nezbytný.
4. Dokumentujte rozhodovací procesy AI, transparentnost je klíčová a může se vám hodit.
Dlouhodobě se specializujeme na IT právo a držíme krok s nejnovějšími technologickými trendy, proto rozumíme i všem právním souvislostem umělé inteligence. Máte strach, že se v regulacích ztratíte? Nechte to na nás, spolu najdeme cestu, jak váš AI projekt zrealizovat.