Obavy ohledně blokování funkce AI v EU pramení především z ochrany osobních údajů, etických důsledků a potenciálních rizik pro základní práva. Zákon o AI Evropské unie zavedl komplexní předpisy, které kategorizují systémy umělé inteligence na základě jejich úrovně rizika, což vede ke konkrétním zákazům a požadavkům.
Problémy s klíčovými údaji
1. Využití biometrických dat:
- Používání systémů umělé inteligence pro biometrickou identifikaci a hromadné sledování vyvolalo značný znepokojení mezi skupinami občanské společnosti. Tyto technologie jsou vnímány jako invazivní a schopné porušovat práva na soukromí jednotlivců, což vede k volání po úplném zákazu kvůli jejich potenciálu zneužití v kontextu sledování[1][2].
2. Prediktivní policejní práce:
- Pod drobnohledem jsou také aplikace umělé inteligence, které usnadňují prediktivní kontrolu založenou na profilování. I když jsou tyto systémy uznávány jako vysoce rizikové, EU se rozhodla je nezakázat přímo s odkazem na potřeby národní bezpečnosti. Místo toho budou vyžadovat důkladná hodnocení souladu, včetně Posouzení dopadu na základní práva (FRIA)[2][3]. Účinnost těchto hodnocení však zůstává nejistá, zejména pokud jde o to, kdo je způsobilý je provádět a jak komplexní budou[2].
3. Transparentnost a odpovědnost:
- Zákon zdůrazňuje potřebu transparentnosti v operacích AI, zejména u vysoce rizikových systémů. Společnosti musí vést podrobné záznamy o rozhodovacích procesech své umělé inteligence a zajistit, aby uživatelé byli informováni, když jsou takovým systémům vystaveni. To je zásadní pro odpovědnost, ale přináší problémy při provádění, zejména pokud jde o zajištění toho, aby všechny zúčastněné strany rozuměly své odpovědnosti podle nových nařízení[1][3].
4. Zaujatost a diskriminace:
- Obavy z předpojatosti v systémech umělé inteligence jsou značné, protože tyto technologie mohou udržovat nebo prohlubovat stávající společenské nerovnosti. EU nařídila, aby vývojáři umělé inteligence zvážili potenciální předsudky ve fázi návrhu a zavedli opatření k jejich zmírnění[4][5]. Cílem tohoto požadavku je chránit základní práva, ale vyvolává otázky ohledně proveditelnosti dosažení nezkreslených výsledků ve složitých modelech umělé inteligence.
5. Lidský dohled:
– Dalším kritickým aspektem zákona je požadavek na lidský dohled po celou dobu životního cyklu systému umělé inteligence. To zahrnuje zajištění toho, aby lidská obsluha mohla v případě potřeby zasáhnout, což komplikuje nasazení plně automatizovaných systémů[2]. Probíhá také diskuse o tom, jak by měla být přidělována odpovědnost, když systémy umělé inteligence způsobí škodu, zejména s ohledem na složitost jejich fungování[2].
Závěr
Přístup EU k regulaci umělé inteligence se vyznačuje velkým důrazem na ochranu práv jednotlivců a zajištění etických norem. Výzvy, které představuje ochrana osobních údajů, předpojatost a odpovědnost, však zůstávají významnými překážkami, které je třeba řešit, protože legislativa směřuje k implementaci do roku 2026. Rovnováha mezi podporou inovací a ochranou základních práv bude klíčová při utváření budoucího prostředí umělé inteligence. Evropa.
Citace:[1] https://www.consilium.europa.eu/en/press/press-releases/2024/05/21/artificial-intelligence-ai-act-council-gives-final-green-light-to-the -first-worldwide-rules-on-ai/
[2] https://www.globalpolicyjournal.com/blog/03/05/2024/unanswered-concerns-eu-ai-act-dead-end
[3] https://usercentrics.com/knowledge-hub/eu-ai-regulation-ai-act/
[4] https://www.infolawgroup.com/insights/2024/6/10/europe-issues-guidance-on-the-interplay-between-data-protection-and-generative-ai
[5] https://secureprivacy.ai/blog/eu-ai-act-compliance
[6] https://www.sciencedirect.com/science/article/pii/S0267364922001133
[7] https://ec.europa.eu/commission/presscorner/detail/en/QANDA_21_1683
[8] https://www.dataguidance.com/opinion/international-interplay-between-ai-act-and-gdpr-ai