Home Arrow Icon Knowledge base Arrow Icon Global Arrow Icon Υπάρχουν θέματα ρυθμιστικών ζητημάτων που αντιμετωπίζει ο Grok σχετικά με την ιδιωτική ζωή


Υπάρχουν θέματα ρυθμιστικών ζητημάτων που αντιμετωπίζει ο Grok σχετικά με την ιδιωτική ζωή


Ο Grok AI, που αναπτύχθηκε από το X (πρώην Twitter), αντιμετωπίζει σημαντικά ρυθμιστικά ζητήματα σχετικά με την προστασία της ιδιωτικής ζωής, ιδίως στην Ευρώπη. Οι πρωταρχικές ανησυχίες περιστρέφονται γύρω από την εικαζόμενη παραβίαση της εταιρείας από τον κανονισμό για την προστασία των δεδομένων (GDPR) χρησιμοποιώντας τα δεδομένα των χρηστών της ΕΕ για να εκπαιδεύσουν το GROK AI χωρίς να λαμβάνουν ρητή συγκατάθεση.

1. Οι παραβιάσεις του GDPR: X άρχισε να επεξεργάζεται δεδομένα από περίπου 60 εκατομμύρια χρήστες της ΕΕ μεταξύ Μαΐου και Αύγουστο του 2024 χωρίς τη συγκατάθεσή τους, η οποία αποτελεί παραβίαση των απαιτήσεων GDPR που επιβάλλουν ρητή άδεια χρήστη για χρήση δεδομένων [1] [6]. Η ομάδα απορρήτου NOYB κατέθεσε εννέα καταγγελίες σε διάφορες ευρωπαϊκές χώρες, υποστηρίζοντας παραβιάσεις πολλαπλών διατάξεων GDPR [1] [6].

2. Ρυθμίσεις συγκατάθεσης προεπιλεγμένων: x Εισήγαγε μια επιλογή εξαίρεσης στα τέλη Ιουλίου 2024, αλλά η προεπιλεγμένη ρύθμιση συμφώνησε αυτόματα τους χρήστες στη συγκομιδή δεδομένων, η οποία είναι εναντίον των κανόνων GDPR που απαγορεύουν τα προ-εισιτήρια κουτιά ή την προεπιλεγμένη συγκατάθεση [2] [9]. Αυτή η πρακτική έχει επικριθεί από τις ρυθμιστικές αρχές στο Ηνωμένο Βασίλειο και την Ιρλανδία [9].

3. Ρυθμιστικές ενέργειες: Η Επιτροπή Προστασίας Δεδομένων της Ιρλανδίας (DPC) ξεκίνησε τις διαδικασίες έναντι του Χ, οδηγώντας στην αναστολή της επεξεργασίας προσωπικών δεδομένων για το GROK AI. Παρόλο που το Χ έχει αποφύγει τις κυρώσεις μέχρι στιγμής, συνεχίζονται περαιτέρω έρευνες [3] [6].

4. Οι ανησυχίες για την προστασία της ιδιωτικής ζωής: Η χρήση δημόσιων θέσεων για την εκπαίδευση μοντέλων AI εγείρει ανησυχίες σχετικά με την ιδιωτική ζωή των χρηστών, την παραπληροφόρηση και τις ακούσιες συνέπειες όπως η παρενόχληση ή η doxxing [2] [6]. Η έλλειψη διαφάνειας όσον αφορά τον τρόπο με τον οποίο χρησιμοποιούνται τα δεδομένα για την εκπαίδευση AI έχει επίσης επισημανθεί ως σημαντικό ζήτημα [7].

Αναφορές:
[1] https://autogpt.net/xs-grok-ai-faces-privacy-complaints-across-europe/
[2] https://blog.internxt.com/grok-ai/
[3] https://www.rpclegal.com/snapshots/data-protection/autumn-2024/x-suspends-training-of-ai-chatbot-grok-following-irish-dpc-pressure/
[4] https://www.grip.globalrelay.com/x-could-face-sanctions-for-training-grok-on-europeans-data/
[5] https://www.wired.com/story/grok-ai-privacy-opt-out/
[6] https://heydata.eu/en/magazine/ai-at-x-privacy-concerns-gdpr-violations-and-misinformation
[7] https://privacymatters.dlapiper.com/?p=7414
[8] https://economictimes.com/news/international/global-trends/elon-musks-ai-grok-3-arks-him-among-americas-most-harmfulwho-else-made-the-list/articleshow /118498727.cms
[9] https://www.cybersecurityintelligence.com/blog/grok-faces-prosecution-for-misusing-ai-intraining-data-7811.html