Những lo ngại về việc tính năng AI bị chặn ở EU chủ yếu xuất phát từ quyền riêng tư dữ liệu, những tác động về mặt đạo đức và những rủi ro tiềm ẩn đối với các quyền cơ bản. Đạo luật AI của Liên minh Châu Âu đã thiết lập các quy định toàn diện nhằm phân loại các hệ thống AI dựa trên mức độ rủi ro của chúng, dẫn đến các lệnh cấm và yêu cầu cụ thể.
Mối quan tâm về dữ liệu chính
1. Sử dụng dữ liệu sinh trắc học:
- Việc sử dụng hệ thống AI để nhận dạng sinh trắc học và giám sát hàng loạt đã gây ra cảnh báo đáng kể trong các nhóm xã hội dân sự. Những công nghệ này được coi là xâm lấn và có khả năng xâm phạm quyền riêng tư của cá nhân, dẫn đến lời kêu gọi cấm hoàn toàn do chúng có khả năng lạm dụng trong bối cảnh giám sát[1] [2].
2. Chính sách dự đoán:
- Các ứng dụng AI hỗ trợ chính sách dự đoán dựa trên hồ sơ cũng đang được xem xét kỹ lưỡng. Mặc dù các hệ thống này được coi là có rủi ro cao nhưng EU đã quyết định không cấm chúng hoàn toàn với lý do nhu cầu an ninh quốc gia. Thay vào đó, họ sẽ yêu cầu đánh giá việc tuân thủ kỹ lưỡng, bao gồm Đánh giá tác động về quyền cơ bản (FRIA)[2][3]. Tuy nhiên, hiệu quả của những đánh giá này vẫn chưa chắc chắn, đặc biệt là về việc ai có đủ trình độ để thực hiện chúng và mức độ toàn diện của chúng[2].
3. Tính minh bạch và trách nhiệm giải trình:
- Đạo luật nhấn mạnh sự cần thiết của minh bạch trong hoạt động AI, đặc biệt đối với các hệ thống có rủi ro cao. Các công ty phải duy trì nhật ký chi tiết về quá trình ra quyết định của AI và đảm bảo rằng người dùng được thông báo khi tiếp xúc với các hệ thống đó. Điều này rất quan trọng đối với trách nhiệm giải trình nhưng đặt ra những thách thức trong quá trình thực hiện, đặc biệt là việc đảm bảo rằng tất cả các bên liên quan hiểu rõ trách nhiệm của mình theo các quy định mới[1][3].
4. Thành kiến và phân biệt đối xử:
- Mối lo ngại về thiên vị trong hệ thống AI là rất lớn, vì những công nghệ này có thể kéo dài hoặc làm trầm trọng thêm sự bất bình đẳng xã hội hiện có. EU đã yêu cầu các nhà phát triển AI phải xem xét những thành kiến tiềm ẩn trong giai đoạn thiết kế và thực hiện các biện pháp để giảm thiểu chúng[4] [5]. Yêu cầu này nhằm mục đích bảo vệ các quyền cơ bản nhưng đặt ra câu hỏi về tính khả thi của việc đạt được kết quả khách quan trong các mô hình AI phức tạp.
5. Giám sát của con người:
- Yêu cầu giám sát của con người trong suốt vòng đời của hệ thống AI là một khía cạnh quan trọng khác của Đạo luật. Điều này bao gồm việc đảm bảo rằng người vận hành con người có thể can thiệp khi cần thiết, điều này làm phức tạp việc triển khai các hệ thống hoàn toàn tự động[2]. Ngoài ra còn có một cuộc tranh luận đang diễn ra về cách phân công trách nhiệm pháp lý khi hệ thống AI gây hại, đặc biệt là do sự phức tạp liên quan đến hoạt động của chúng[2].
Phần kết luận
Cách tiếp cận của EU trong việc quản lý AI được đặc trưng bởi sự nhấn mạnh vào việc bảo vệ quyền cá nhân và đảm bảo các tiêu chuẩn đạo đức. Tuy nhiên, những thách thức đặt ra bởi quyền riêng tư, thành kiến và trách nhiệm giải trình về dữ liệu vẫn là những trở ngại đáng kể cần được giải quyết khi luật này hướng tới việc thực thi vào năm 2026. Sự cân bằng giữa thúc đẩy đổi mới và bảo vệ các quyền cơ bản sẽ rất quan trọng trong việc định hình bối cảnh tương lai của AI ở các nước. Châu Âu.
Trích dẫn:[1] https://www.consilium.europa.eu/en/press/press-releases/2024/05/21/artificial-intelligence-ai-act-council-gives-final-green-light-to-the -first-worldwide-quy tắc-on-ai/
[2] https://www.globalpolicyjournal.com/blog/03/05/2024/unanswered-concerns-eu-ai-act-dead-end
[3] https://usercentrics.com/know-hub/eu-ai-regulation-ai-act/
[4] https://www.infolawgroup.com/insights/2024/6/10/europe-issues-guidance-on-the-interplay-between-data-protection-and-generative-ai
[5] https://secureprivacy.ai/blog/eu-ai-act-compliance
[6] https://www.sciencedirect.com/science/article/pii/S0267364922001133
[7] https://ec.europa.eu/commission/presscorner/detail/en/QANDA_21_1683
[8] https://www.dataguidance.com/opinion/international-interplay-between-ai-act-and-gdpr-ai