Susirūpinimą, kad dirbtinio intelekto funkcija blokuojama ES, pirmiausia kyla dėl duomenų privatumo, etinių pasekmių ir galimo pavojaus pagrindinėms teisėms. Europos Sąjungos AI įstatymas nustatė išsamius reglamentus, pagal kuriuos dirbtinio intelekto sistemos skirstomos į kategorijas pagal jų rizikos lygį, todėl nustatomi konkretūs draudimai ir reikalavimai.
Pagrindinės duomenų problemos
1. Biometrinių duomenų naudojimas:
- Dirbtinio intelekto sistemų naudojimas biometriniam identifikavimui ir masiniam stebėjimui sukėlė didelį susirūpinimą pilietinės visuomenės grupėse. Šios technologijos suvokiamos kaip invazinės ir galinčios pažeisti asmens teises į privatumą, todėl raginama visiškai uždrausti jas dėl galimo piktnaudžiavimo stebėjimo kontekste[1][2].
2. Nuspėjamoji policija:
– Taip pat tiriamos dirbtinio intelekto programos, kurios palengvina nuspėjamą policijos veiklą, pagrįstą profiliavimu. Nors šios sistemos pripažįstamos kaip didelės rizikos, ES nusprendė jų visiškai neuždrausti, remdamasi nacionalinio saugumo poreikiais. Vietoj to reikės atlikti išsamų atitikties vertinimą, įskaitant pagrindinių teisių poveikio vertinimą (FRIA)[2][3]. Tačiau šių vertinimų veiksmingumas lieka neaiškus, ypač atsižvelgiant į tai, kas yra kvalifikuotas juos atlikti ir kiek jie bus išsamūs[2].
3. Skaidrumas ir atskaitomybė:
- Įstatyme pabrėžiamas skaidrumo poreikis dirbtinio intelekto operacijose, ypač didelės rizikos sistemose. Įmonės turi tvarkyti išsamius savo dirbtinio intelekto sprendimų priėmimo procesų žurnalus ir užtikrinti, kad vartotojai būtų informuoti, kai susiduria su tokiomis sistemomis. Tai labai svarbu siekiant atskaitomybės, tačiau kyla sunkumų įgyvendinant, ypač užtikrinant, kad visos suinteresuotosios šalys suprastų savo pareigas pagal naujus reglamentus[1][3].
4. šališkumas ir diskriminacija:
- Susirūpinimas dėl šališkumo dirbtinio intelekto sistemose yra didelis, nes šios technologijos gali išlaikyti arba sustiprinti esamą visuomenės nelygybę. ES įpareigojo dirbtinio intelekto kūrėjus projektavimo etape atsižvelgti į galimą šališkumą ir įgyvendinti priemones, skirtas jiems sušvelninti[4][5]. Šiuo reikalavimu siekiama apsaugoti pagrindines teises, tačiau kyla klausimų dėl galimybės pasiekti nešališkų rezultatų taikant sudėtingus AI modelius.
5. Žmogaus priežiūra:
- Reikalavimas vykdyti žmogaus priežiūrą per visą AI sistemos gyvavimo ciklą yra dar vienas svarbus įstatymo aspektas. Tai apima užtikrinimą, kad prireikus žmonės galėtų įsikišti, o tai apsunkina visiškai automatizuotų sistemų diegimą[2]. Taip pat tebevyksta diskusijos apie tai, kaip reikėtų priskirti atsakomybę, kai dirbtinio intelekto sistemos daro žalą, ypač atsižvelgiant į jų veikimo sudėtingumą[2].
Išvada
ES požiūris į dirbtinio intelekto reguliavimą pasižymi tuo, kad daug dėmesio skiria asmens teisių apsaugai ir etikos standartų užtikrinimui. Tačiau iššūkiai, kuriuos kelia duomenų privatumas, šališkumas ir atskaitomybė, tebėra didelės kliūtys, kurias reikia pašalinti, kai teisės aktai bus įgyvendinti iki 2026 m. Naujovių skatinimo ir pagrindinių teisių apsaugos pusiausvyra bus labai svarbi kuriant būsimą dirbtinio intelekto aplinką pasaulyje. Europa.
Citatos:[1] https://www.consilium.europa.eu/en/press/press-releases/2024/05/21/artificial-intelligence-ai-act-council-gives-final-green-light-to-the -first-worldwide-rules-on-ai/
[2] https://www.globalpolicyjournal.com/blog/03/05/2024/unanswered-concerns-eu-ai-act-dead-end
[3] https://usercentrics.com/knowledge-hub/eu-ai-regulation-ai-act/
[4] https://www.infolawgroup.com/insights/2024/6/10/europe-issues-guidance-on-the-interplay-between-data-protection-and-generative-ai
[5] https://secureprivacy.ai/blog/eu-ai-act-compliance
[6] https://www.sciencedirect.com/science/article/pii/S0267364922001133
[7] https://ec.europa.eu/commission/presscorner/detail/en/QANDA_21_1683
[8] https://www.dataguidance.com/opinion/international-interplay-between-ai-act-and-gdpr-ai