تبرز Grok ، وخاصة Grok 2 ، من مولدات صور منظمة العفو الدولية الأخرى بسبب نهجها المتراخين نسبيًا لاعتدال المحتوى. على عكس أدوات مثل Midjourney ، التي نفذت أنظمة الاعتدال المستندة إلى الذكاء الاصطناعي لمنع توليد محتوى غير مناسب أو محمي بحقوق الطبع والنشر ، تعرض Grok 2 لانتقادات لتفتقر إلى ضمانات قوية. هذا يعني أنه يمكن للمستخدمين إنشاء صور قد تنتهك حقوق الطبع والنشر أو تصور المحتوى الهجومي ، مما يثير مخاوف أخلاقية وقانونية كبيرة [2] [3] [5].
على سبيل المثال ، طورت Midjourney نظام الاعتدال للسماح بمزيد من توليد الصور المعتمد على السياق مع الحفاظ على ضوابط صارمة ضد المحتوى الضار. في المقابل ، أدى افتقار Grok إلى الاعتدال القوي إلى حالات توليد صور عنيفة أو مسيئة أو موحية جنسيًا ، مما يبرز المخاطر المرتبطة بنهجها [2] [3].
على الرغم من أن Grok قد بدأت في تقديم بعض ميزات تعميد المحتوى ، إلا أن التحديثات الأولية والتحديثات اللاحقة تم تمييزها بموقف أكثر تساهلاً بشأن المحتوى الذي تم إنشاؤه بواسطة المستخدم. يُنظر إلى هذا النهج على أنه حرية إبداعية ومسؤولية ، لأنه يفتح الباب أمام سوء الاستخدام المحتملة والقضايا القانونية المتعلقة بانتهاك حقوق الطبع والنشر والتشهير [4] [5].
بالمقارنة مع أدوات AI الأخرى مثل Adobe's Firefly ، والتي يتم تدريبها على صور المخزون المرخصة لتجنب مشكلات حقوق الطبع والنشر ، يثير نموذج Grok أسئلة حول نشر الذكاء الاصطناعي المسؤول والحاجة إلى أطر قانونية أوضح حول المحتوى الذي تم إنشاؤه من الذكاء الاصطناعي [3] [5]. بشكل عام ، تعتبر استراتيجية Grok معتدلة محتوى أكثر تساهلاً من العديد من منافسيها ، والتي قد تؤثر على تبنيها والامتثال التنظيمي في المستقبل.
الاستشهادات:[1] https://ericleads.com
[2]
[3] https://techxplore.com/news/2024-08-elon-musk-grok-risky-ai.html
[4] https://parental-control.flashget.com/exploring-grok-2
[5]
[6] https://writesonic.com/blog/grok-3-vs-chatgpt
[7]
[8]