GROK AI, kuru izstrādājis X (iepriekš Twitter), saskaras ar nozīmīgiem normatīvajiem jautājumiem attiecībā uz privātumu, īpaši Eiropā. Galvenās bažas ir saistītas ar uzņēmuma iespējamo vispārējās datu aizsardzības regulas (GDPR) pārkāpumu, izmantojot ES lietotāju datus, lai apmācītu grok AI, nesaņemot skaidru piekrišanu.
1. GDPR pārkāpumi: X sāka apstrādāt datus no aptuveni 60 miljoniem ES lietotāju no 2024. gada maija līdz augustam bez viņu piekrišanas, kas ir GDPR prasību pārkāpums, kas pilnvaro skaidru lietotāja atļauju datu izmantošanai [1] [6]. Privātuma grupa Noyb iesniedza deviņas sūdzības vairākās Eiropas valstīs, apgalvojot par vairāku GDPR noteikumu pārkāpumiem [1] [6].
2. Noklusējuma piekrišanas iestatījumi: X 2024. gada jūlija beigās ieviesa atteikšanās opciju, bet noklusējuma iestatījums automātiski piekrita lietotājiem datu novākšanai, kas ir pret GDPR noteikumiem, kas aizliedz iepriekš atlasītus rūtiņas vai noklusējuma piekrišanu [2] [9]. Šo praksi ir kritizējuši regulatori Lielbritānijā un Īrijā [9].
3. Normatīvās darbības: Īrijas datu aizsardzības komisija (DPC) uzsāka tiesvedību pret X, kā rezultātā GROK AI apturas personas datu apstrāde. Lai arī X līdz šim ir izvairījies no sankcijām, turpinās turpmāka izmeklēšana [3] [6].
4. Privātuma bažas: publisko amatu izmantošana AI modeļu apmācībai rada bažas par lietotāju privātumu, dezinformāciju un neparedzētām sekām, piemēram, uzmākšanos vai doxxing [2] [6]. Tiek uzsvērts arī caurspīdīguma trūkums par to, kā dati tiek izmantoti AI apmācībā, ir uzsvērta arī nozīmīga problēma [7].
Atsauces:[1] https://autogpt.net/xs-grok-ai-face-privacy-complaints-across-europe/
[2] https://blog.internxt.com/grok-ai/
[3.]
.
[5] https://www.wired.com/story/grok-ai-privacy-opt out/
.
[7] https://privacymatters.dlapiper.com/?p=7414
. /118498727.CMS
[9] https://www.cybersecurityintelligence.com/blog/grok-face-prosecution-for-misusing-ai-training-data-7811.html