Home Arrow Icon Knowledge base Arrow Icon Global Arrow Icon Aké konkrétne údaje spôsobujú zablokovanie funkcie AI v EÚ


Aké konkrétne údaje spôsobujú zablokovanie funkcie AI v EÚ


Obavy týkajúce sa blokovania funkcie AI v EÚ pramenia predovšetkým z ochrany osobných údajov, etických dôsledkov a potenciálnych rizík pre základné práva. Zákon o AI Európskej únie zaviedol komplexné nariadenia, ktoré kategorizujú systémy AI na základe ich rizikových úrovní, čo vedie k špecifickým zákazom a požiadavkám.

Problémy s kľúčovými údajmi

1. Využitie biometrických údajov:
- Používanie systémov umelej inteligencie na biometrickú identifikáciu a hromadné monitorovanie vyvolalo medzi skupinami občianskej spoločnosti značný poplach. Tieto technológie sú vnímané ako invazívne a schopné porušovať práva na súkromie jednotlivcov, čo si vyžaduje úplný zákaz z dôvodu ich potenciálneho zneužitia v kontexte sledovania[1][2].

2. Prediktívna polícia:
- Pod drobnohľadom sú aj aplikácie AI, ktoré uľahčujú prediktívnu kontrolu založenú na profilovaní. Aj keď sú tieto systémy uznávané ako vysoko rizikové, EÚ sa rozhodla nezakázať ich priamo s odvolaním sa na potreby národnej bezpečnosti. Namiesto toho budú vyžadovať dôkladné hodnotenia súladu vrátane Posúdenia vplyvu na základné práva (FRIA)[2][3]. Účinnosť týchto hodnotení však zostáva neistá, najmä pokiaľ ide o to, kto je kvalifikovaný na ich vykonávanie a nakoľko budú komplexné[2].

3. Transparentnosť a zodpovednosť:
- Zákon zdôrazňuje potrebu transparentnosti v operáciách AI, najmä v prípade vysokorizikových systémov. Spoločnosti musia viesť podrobné záznamy o rozhodovacích procesoch ich AI a zabezpečiť, aby používatelia boli informovaní, keď sú vystavení takýmto systémom. Je to kľúčové pre zodpovednosť, ale predstavuje problémy pri vykonávaní, najmä pokiaľ ide o zabezpečenie toho, aby všetky zainteresované strany rozumeli svojim povinnostiam podľa nových nariadení[1][3].

4. Zaujatosť a diskriminácia:
- Obavy z zaujatosti v systémoch umelej inteligencie sú značné, pretože tieto technológie môžu udržiavať alebo prehlbovať existujúce spoločenské nerovnosti. EÚ nariadila, aby vývojári umelej inteligencie zvážili potenciálne skreslenia vo fáze návrhu a zaviedli opatrenia na ich zmiernenie[4][5]. Táto požiadavka je zameraná na ochranu základných práv, ale vyvoláva otázky o uskutočniteľnosti dosiahnutia nezaujatých výsledkov v zložitých modeloch AI.

5. Ľudský dohľad:
- Ďalším kritickým aspektom zákona je požiadavka na ľudský dohľad počas celého životného cyklu systému AI. To zahŕňa zabezpečenie toho, aby ľudská obsluha mohla v prípade potreby zasiahnuť, čo komplikuje nasadenie plne automatizovaných systémov[2]. Prebieha aj diskusia o tom, ako by sa mala určiť zodpovednosť, keď systémy AI spôsobia škodu, najmä vzhľadom na zložitosť ich fungovania[2].

Záver

Prístup EÚ k regulácii AI sa vyznačuje silným dôrazom na ochranu práv jednotlivcov a zabezpečenie etických noriem. Výzvy, ktoré predstavuje súkromie údajov, zaujatosť a zodpovednosť, však zostávajú významnými prekážkami, ktoré je potrebné riešiť, keď sa legislatíva približuje k implementácii do roku 2026. Rovnováha medzi podporou inovácií a ochranou základných práv bude rozhodujúca pri formovaní budúceho prostredia AI v Európe.

Citácie:
[1] https://www.consilium.europa.eu/en/press/press-releases/2024/05/21/artificial-intelligence-ai-act-council-gives-final-green-light-to-the -first-worldwide-rules-on-ai/
[2] https://www.globalpolicyjournal.com/blog/03/05/2024/unanswered-concerns-eu-ai-act-dead-end
[3] https://usercentrics.com/knowledge-hub/eu-ai-regulation-ai-act/
[4] https://www.infolawgroup.com/insights/2024/6/10/europe-issues-guidance-on-the-interplay-between-data-protection-and-generative-ai
[5] https://secureprivacy.ai/blog/eu-ai-act-compliance
[6] https://www.sciencedirect.com/science/article/pii/S0267364922001133
[7] https://ec.europa.eu/commission/presscorner/detail/en/QANDA_21_1683
[8] https://www.dataguidance.com/opinion/international-interplay-between-ai-act-and-gdpr-ai