Az EU-ban blokkolt mesterséges intelligencia funkcióval kapcsolatos aggodalmak elsősorban az adatvédelemből, etikai vonatkozásokból és az alapvető jogokat fenyegető lehetséges kockázatokból erednek. Az Európai Unió AI törvénye átfogó szabályozást hozott létre, amely az AI-rendszereket kockázati szintjeik alapján kategorizálja, ami konkrét tilalmakhoz és követelményekhez vezet.
Főbb adatokkal kapcsolatos problémák
1. Biometrikus adathasználat:
- Az AI-rendszerek biometrikus azonosításra és tömeges megfigyelésre történő használata jelentős riadalmat keltett a civil társadalmi csoportok körében. Ezeket a technológiákat invazívnak tekintik, és alkalmasak az egyéni személyiségi jogok megsértésére, ezért teljes betiltásra szólítanak fel a megfigyelési kontextusban való visszaélés lehetősége miatt[1][2].
2. Prediktív rendőrség:
- A profilalkotáson alapuló prediktív rendészetet elősegítő mesterséges intelligencia-alkalmazások szintén vizsgálat alatt állnak. Noha ezeket a rendszereket magas kockázatúnak tekintik, az EU nemzetbiztonsági szükségletekre hivatkozva úgy döntött, hogy nem tiltja be őket közvetlenül. Ehelyett alapos megfelelőségi értékelésekre lesz szükség, beleértve az Fundamental Rights Impact Assessment (FRIA)[2][3] elkészítését. Ezeknek az értékeléseknek a hatékonysága azonban továbbra is bizonytalan, különösen a tekintetben, hogy ki képes elvégezni azokat, és mennyire lesznek átfogóak[2].
3. Átláthatóság és elszámoltathatóság:
- A törvény hangsúlyozza az átláthatóság szükségességét az AI-műveletek során, különösen a magas kockázatú rendszerek esetében. A vállalatoknak részletes naplókat kell vezetniük mesterséges intelligencia döntéshozatali folyamatairól, és gondoskodniuk kell arról, hogy a felhasználók tájékozottak legyenek, amikor ilyen rendszerekkel találkoznak. Ez kulcsfontosságú az elszámoltathatóság szempontjából, de kihívások elé állítja a végrehajtást, különösen annak biztosításában, hogy minden érdekelt fél megértse az új szabályozás értelmében fennálló felelősségét[1][3].
4. Elfogultság és diszkrimináció:
- Az AI-rendszerek elfogultsága miatti aggodalmak jelentősek, mivel ezek a technológiák állandósíthatják vagy súlyosbíthatják a meglévő társadalmi egyenlőtlenségeket. Az EU előírta, hogy a mesterséges intelligencia fejlesztőinek figyelembe kell venniük a lehetséges torzításokat a tervezési szakaszban, és intézkedéseket kell hozniuk azok enyhítésére[4][5]. Ez a követelmény az alapvető jogok védelmét célozza, de kérdéseket vet fel azzal kapcsolatban, hogy lehetséges-e elfogulatlan eredményeket elérni összetett mesterségesintelligencia-modellek esetén.
5. Emberi felügyelet:
- Az emberi felügyelet követelménye a mesterséges intelligencia rendszer életciklusa során a törvény másik kritikus vonatkozása. Ez magában foglalja annak biztosítását, hogy az emberi kezelők szükség esetén beavatkozhassanak, ami megnehezíti a teljesen automatizált rendszerek kiépítését[2]. Folyamatos vita folyik arról is, hogy miként kell felelősséget kiosztani, ha az AI-rendszerek kárt okoznak, különös tekintettel a működésük bonyolultságára[2].
Következtetés
A mesterséges intelligencia szabályozásával kapcsolatos uniós megközelítést az egyéni jogok védelmére és az etikai normák biztosítására helyezi nagy hangsúly. Az adatvédelem, az elfogultság és az elszámoltathatóság jelentette kihívások azonban továbbra is jelentős akadályokat jelentenek, amelyeket le kell küzdeni, miközben a jogszabályok 2026-ig a végrehajtás felé haladnak. Az innováció előmozdítása és az alapvető jogok védelme közötti egyensúly kulcsfontosságú lesz a mesterséges intelligencia jövőbeli környezetének alakításában. Európa.
Idézetek:[1] https://www.consilium.europa.eu/en/press/press-releases/2024/05/21/artificial-intelligence-ai-act-council-gives-final-green-light-to-the -first-worldwide-rules-on-ai/
[2] https://www.globalpolicyjournal.com/blog/03/05/2024/unanswered-concerns-eu-ai-act-dead-end
[3] https://usercentrics.com/knowledge-hub/eu-ai-regulation-ai-act/
[4] https://www.infolawgroup.com/insights/2024/6/10/europe-issues-guidance-on-the-interplay-between-data-protection-and-generative-ai
[5] https://secureprivacy.ai/blog/eu-ai-act-compliance
[6] https://www.sciencedirect.com/science/article/pii/S0267364922001133
[7] https://ec.europa.eu/commission/presscorner/detail/en/QANDA_21_1683
[8] https://www.dataguidance.com/opinion/international-interplay-between-ai-act-and-gdpr-ai