Mure seoses tehisintellekti funktsiooni blokeerimisega ELis tuleneb peamiselt andmete privaatsusest, eetilistest tagajärgedest ja võimalikest riskidest põhiõigustele. Euroopa Liidu AI seadus on kehtestanud põhjalikud määrused, mis kategoriseerivad tehisintellekti süsteeme nende riskitasemete alusel, mis toob kaasa konkreetsed keelud ja nõuded.
Peamised andmetega seotud probleemid
1. Biomeetriliste andmete kasutamine:
- AI-süsteemide kasutamine biomeetriliseks tuvastamiseks ja massiseireks on tekitanud kodanikuühiskonna rühmades märkimisväärset ärevust. Neid tehnoloogiaid peetakse invasiivseteks ja need võivad rikkuda üksikisikute privaatsusõigusi, mistõttu on vaja täielikku keelustamist, kuna neid võidakse kuritarvitada järelevalve kontekstis[1][2].
2. Ennustav politsei:
- Samuti on vaatluse all AI-rakendused, mis hõlbustavad profileerimisel põhinevat ennustavat politseitööd. Kuigi neid süsteeme peetakse kõrge riskiga süsteemideks, on EL otsustanud neid riikliku julgeoleku vajadustele viidates mitte täielikult keelata. Selle asemel nõuavad nad põhjalikku vastavushindamist, sealhulgas põhiõiguste mõju hindamist (FRIA)[2][3]. Nende hindamiste tõhusus on aga endiselt ebakindel, eriti selle osas, kes on nende läbiviimiseks kvalifitseeritud ja kui kõikehõlmavad need on[2].
3. Läbipaistvus ja vastutus:
- Seadus rõhutab vajadust läbipaistvuse järele tehisintellekti toimimises, eriti kõrge riskiga süsteemide puhul. Ettevõtted peavad pidama üksikasjalikke logisid oma tehisintellekti otsustusprotsesside kohta ja tagama, et kasutajaid teavitataks selliste süsteemidega kokkupuutumisest. See on vastutuse seisukohast ülioluline, kuid tekitab väljakutseid rakendamisel, eelkõige tagamaks, et kõik sidusrühmad mõistavad oma kohustusi uutest määrustest[1][3].
4. Kallutatus ja diskrimineerimine:
- Mure tehisintellektisüsteemide eelarvamuste pärast on märkimisväärne, kuna need tehnoloogiad võivad säilitada või süvendada olemasolevat ühiskondlikku ebavõrdsust. EL on volitanud, et tehisintellekti arendajad peavad kavandamisetapis arvestama võimalike eelarvamustega ja rakendama meetmeid nende leevendamiseks[4][5]. Selle nõude eesmärk on kaitsta põhiõigusi, kuid see tekitab küsimusi keeruliste tehisintellektimudelite erapooletute tulemuste saavutamise teostatavuse kohta.
5. Inimjärelevalve:
- Seaduse teine oluline aspekt on inimjärelevalve nõue kogu tehisintellektisüsteemi elutsükli jooksul. See hõlmab ka selle tagamist, et inimkäitajad saavad vajadusel sekkuda, mis raskendab täielikult automatiseeritud süsteemide kasutuselevõttu[2]. Käimas on ka arutelu selle üle, kuidas tuleks määrata vastutus, kui tehisintellektisüsteemid põhjustavad kahju, eriti arvestades nende toimimise keerukust[2].
Järeldus
ELi lähenemist tehisintellekti reguleerimisele iseloomustab suur rõhk üksikisikute õiguste kaitsmisel ja eetiliste standardite tagamisel. Andmete privaatsusest, erapoolikusest ja vastutusest tulenevad väljakutsed on aga endiselt olulised takistused, millega tuleb tegeleda, kuna õigusaktid liiguvad 2026. aastaks rakendamise poole. Tasakaal innovatsiooni edendamise ja põhiõiguste kaitsmise vahel on tehisintellekti tulevikumaastiku kujundamisel otsustava tähtsusega. Euroopas.
Tsitaadid:[1] https://www.consilium.europa.eu/en/press/press-releases/2024/05/21/artificial-intelligence-ai-act-council-gives-final-green-light-to-the -first-worldwide-rules-on-ai/
[2] https://www.globalpolicyjournal.com/blog/03/05/2024/unanswered-concerns-eu-ai-act-dead-end
[3] https://usercentrics.com/knowledge-hub/eu-ai-regulation-ai-act/
[4] https://www.infolawgroup.com/insights/2024/6/10/europe-issues-guidance-on-the-interplay-between-data-protection-and-generative-ai
[5] https://secureprivacy.ai/blog/eu-ai-act-compliance
[6] https://www.sciencedirect.com/science/article/pii/S0267364922001133
[7] https://ec.europa.eu/commission/presscorner/detail/en/QANDA_21_1683
[8] https://www.dataguidance.com/opinion/international-interplay-between-ai-act-and-gdpr-ai