Zaskrbljenost glede blokiranja funkcije umetne inteligence v EU izhaja predvsem iz zasebnosti podatkov, etičnih posledic in možnih tveganj za temeljne pravice. Zakon o AI Evropske unije je vzpostavil obsežne predpise, ki kategorizirajo sisteme AI glede na njihovo stopnjo tveganja, kar vodi do posebnih prepovedi in zahtev.
Ključni pomisleki glede podatkov
1. Uporaba biometričnih podatkov:
- Uporaba sistemov umetne inteligence za biometrično identifikacijo in množično spremljanje je med skupinami civilne družbe sprožila velik preplah. Te tehnologije se dojemajo kot invazivne in lahko kršijo pravice posameznikov do zasebnosti, kar spodbuja pozive k popolni prepovedi zaradi njihove možnosti zlorabe v kontekstih nadzora[1][2].
2. Napovedni nadzor:
- Pod drobnogledom so tudi aplikacije AI, ki omogočajo prediktivno policijsko delovanje na podlagi profiliranja. Čeprav so ti sistemi priznani kot zelo tvegani, se je EU odločila, da jih ne bo dokončno prepovedala, pri čemer je navedla nacionalne varnostne potrebe. Namesto tega bodo zahtevale temeljite ocene skladnosti, vključno z Oceno vpliva na temeljne pravice (FRIA)[2][3]. Vendar je učinkovitost teh ocen še vedno negotova, zlasti glede tega, kdo je usposobljen za njihovo izvajanje in kako celovite bodo[2].
3. Transparentnost in odgovornost:
- Zakon poudarja potrebo po transparentnosti pri delovanju umetne inteligence, zlasti pri sistemih z visokim tveganjem. Podjetja morajo vzdrževati podrobne dnevnike postopkov odločanja svojih AI in zagotoviti, da so uporabniki obveščeni, ko so izpostavljeni takim sistemom. To je ključnega pomena za odgovornost, vendar predstavlja izzive pri izvajanju, zlasti pri zagotavljanju, da vse zainteresirane strani razumejo svoje odgovornosti v skladu z novimi predpisi[1][3].
4. Pristranskost in diskriminacija:
- Pomisleki glede pristranskosti v sistemih umetne inteligence so precejšnji, saj lahko te tehnologije ohranijo ali poslabšajo obstoječe družbene neenakosti. EU je določila, da morajo razvijalci umetne inteligence upoštevati morebitne pristranskosti v fazi načrtovanja in izvajati ukrepe za njihovo ublažitev[4][5]. Ta zahteva je namenjena zaščiti temeljnih pravic, vendar postavlja vprašanja o izvedljivosti doseganja nepristranskih rezultatov v kompleksnih modelih umetne inteligence.
5. Človeški nadzor:
- Zahteva po človeškem nadzoru v celotnem življenjskem ciklu sistema umetne inteligence je še en kritičen vidik zakona. To vključuje zagotavljanje, da lahko operaterji posredujejo, kadar je to potrebno, kar otežuje uvajanje popolnoma avtomatiziranih sistemov[2]. V teku je tudi razprava o tem, kako je treba dodeliti odgovornost, kadar sistemi umetne inteligence povzročijo škodo, zlasti glede na zapletenost njihovega delovanja[2].
Zaključek
Za pristop EU k regulaciji umetne inteligence je značilen močan poudarek na zaščiti pravic posameznika in zagotavljanju etičnih standardov. Vendar pa izzivi, ki jih predstavljajo zasebnost podatkov, pristranskost in odgovornost, ostajajo pomembne ovire, ki jih je treba obravnavati, ko se bo zakonodaja začela izvajati do leta 2026. Ravnovesje med spodbujanjem inovacij in varovanjem temeljnih pravic bo ključnega pomena pri oblikovanju prihodnje pokrajine umetne inteligence v Evropi.
Citati:[1] https://www.consilium.europa.eu/en/press/press-releases/2024/05/21/artificial-intelligence-ai-act-council-gives-final-green-light-to-the -first-worldwide-rules-on-ai/
[2] https://www.globalpolicyjournal.com/blog/03/05/2024/unanswered-concerns-eu-ai-act-dead-end
[3] https://usercentrics.com/knowledge-hub/eu-ai-regulation-ai-act/
[4] https://www.infolawgroup.com/insights/2024/6/10/europe-issues-guidance-on-the-interplay-between-data-protection-and-generative-ai
[5] https://secureprivacy.ai/blog/eu-ai-act-compliance
[6] https://www.sciencedirect.com/science/article/pii/S0267364922001133
[7] https://ec.europa.eu/commission/presscorner/detail/en/QANDA_21_1683
[8] https://www.dataguidance.com/opinion/international-interplay-between-ai-act-and-gdpr-ai