Bažas par mākslīgā intelekta funkcijas bloķēšanu ES galvenokārt izraisa datu privātums, ētiskas sekas un potenciālie riski pamattiesībām. Ar Eiropas Savienības AI likumu ir izveidoti visaptveroši noteikumi, kas AI sistēmas iedala kategorijās, pamatojoties uz to riska līmeņiem, tādējādi radot īpašus aizliegumus un prasības.
Galvenās datu problēmas
1. Biometrisko datu lietojums:
- AI sistēmu izmantošana biometriskajai identifikācijai un masveida uzraudzībai ir radījusi ievērojamu satraukumu pilsoniskās sabiedrības grupās. Šīs tehnoloģijas tiek uztvertas kā invazīvas un ar tām var tikt pārkāptas personas privātuma tiesības, tādēļ tiek prasīts pilnībā aizliegt, jo tās var tikt ļaunprātīgi izmantotas novērošanas kontekstā[1][2].
2. Prognozējošā policijas darbība:
- Tiek pārbaudītas arī AI lietojumprogrammas, kas atvieglo prognozējošu policijas darbu, pamatojoties uz profilēšanu. Lai gan šīs sistēmas ir atzītas par augsta riska sistēmām, ES ir izvēlējusies tās pilnībā neaizliegt, atsaucoties uz valsts drošības vajadzībām. Tā vietā tiem būs jāveic rūpīgs atbilstības novērtējums, tostarp Ietekmes uz pamattiesībām novērtējums (FRIA)[2][3]. Tomēr šo novērtējumu efektivitāte joprojām ir neskaidra, jo īpaši attiecībā uz to, kurš ir kvalificēts to veikšanai un cik visaptveroši tie būs[2].
3. Pārredzamība un atbildība:
- Likumā ir uzsvērta nepieciešamība pēc pārredzamības AI darbībās, jo īpaši augsta riska sistēmām. Uzņēmumiem ir jāuztur detalizēti žurnāli par sava AI lēmumu pieņemšanas procesiem un jānodrošina, ka lietotāji tiek informēti par saskarsmi ar šādām sistēmām. Tas ir ļoti svarīgi pārskatatbildības nodrošināšanai, taču tas rada izaicinājumus īstenošanai, jo īpaši nodrošinot, ka visas ieinteresētās personas saprot savus pienākumus saskaņā ar jaunajiem noteikumiem[1][3].
4. Neobjektivitāte un diskriminācija:
- Bažas par neobjektivitāti AI sistēmās ir būtiskas, jo šīs tehnoloģijas var iemūžināt vai saasināt pastāvošo sabiedrības nevienlīdzību. ES ir noteikusi, ka mākslīgā intelekta izstrādātājiem izstrādes posmā ir jāņem vērā iespējamās novirzes un jāīsteno pasākumi to mazināšanai[4][5]. Šīs prasības mērķis ir aizsargāt pamattiesības, taču tā rada jautājumus par objektīvu rezultātu sasniegšanas iespējamību sarežģītos AI modeļos.
5. Cilvēku uzraudzība:
- Vēl viens būtisks likuma aspekts ir prasība par cilvēku uzraudzību visā AI sistēmas dzīves ciklā. Tas ietver arī to, lai vajadzības gadījumā operatori varētu iejaukties, kas apgrūtina pilnībā automatizētu sistēmu ieviešanu[2]. Notiek arī debates par to, kā būtu jāpiešķir atbildība, ja AI sistēmas rada kaitējumu, jo īpaši ņemot vērā to darbības sarežģītību[2].
Secinājums
ES pieeju mākslīgā intelekta regulēšanai raksturo liels uzsvars uz indivīda tiesību aizsardzību un ētikas standartu nodrošināšanu. Tomēr problēmas, ko rada datu privātums, neobjektivitāte un atbildība, joprojām ir nozīmīgi šķēršļi, kas jānovērš, tiesību aktiem virzoties uz īstenošanu līdz 2026. gadam. Līdzsvars starp inovāciju veicināšanu un pamattiesību aizsardzību būs ļoti svarīgs AI nākotnes ainavas veidošanā pasaulē. Eiropā.
Citāts:[1] https://www.consilium.europa.eu/en/press/press-releases/2024/05/21/artificial-intelligence-ai-act-council-gives-final-green-light-to-the -first-worldwide-rules-on-ai/
[2] https://www.globalpolicyjournal.com/blog/03/05/2024/unanswered-concerns-eu-ai-act-dead-end
[3] https://usercentrics.com/knowledge-hub/eu-ai-regulation-ai-act/
[4] https://www.infolawgroup.com/insights/2024/6/10/europe-issues-guidance-on-the-interplay-between-data-protection-and-generative-ai
[5] https://secureprivacy.ai/blog/eu-ai-act-compliance
[6] https://www.sciencedirect.com/science/article/pii/S0267364922001133
[7] https://ec.europa.eu/commission/presscorner/detail/en/QANDA_21_1683
[8] https://www.dataguidance.com/opinion/international-interplay-between-ai-act-and-gdpr-ai