مخاوف من انتهاك الخصوصية بسبب صور غيبلي في ChatGPT
أثار نشطاء حماية الخصوصية موجة من القلق حول ميزة تحويل الصور إلى أسلوب استوديو غيبلي التي أطلقتها شركة OpenAI مؤخرًا ضمن تطبيق ChatGPT، مشيرين إلى أنها قد تكون وسيلة غير مباشرة لجمع آلاف الصور الشخصية وتوظيفها في تدريب نماذج الذكاء الاصطناعي.
الميزة، التي لاقت رواجًا كبيرًا عالميًا منذ طرحها، تعتمد على قيام المستخدمين برفع صورهم لتحويلها إلى رسومات مستوحاة من أفلام استوديو غيبلي. لكن ما لا يدركه الكثيرون هو أن هذه الصور قد تُخزن وتُستخدم لاحقًا من قبل OpenAI لأغراض تتجاوز التحويل الفني.
هل تُستخدم صور المستخدمين لتدريب الذكاء الاصطناعي؟
وفقًا لتقرير من صحيفة Malayalam الهندية، فإن قيام المستخدمين برفع صورهم طوعًا يمنح OpenAI حرية قانونية أوسع في استخدامها مقارنة بالصور التي تُجمع من الإنترنت، والتي تُقيّدها اللائحة العامة لحماية البيانات (GDPR) في الاتحاد الأوروبي.
وبينما يُطلب من الشركات تبرير جمع البيانات بناءً على “مصلحة مشروعة”، فإن موافقة المستخدم المباشرة تفتح الباب أمام OpenAI لتخزين الصور وتحليلها واستخدامها في تدريب النماذج الذكية.
الفرق بين OpenAI وباقي الفلاتر التقليدية:
على عكس فلاتر الذكاء الاصطناعي الشائعة، التي تعدل الصور مؤقتًا دون تخزين الأصل، فإن OpenAI تحتفظ بالصور الأصلية التي يرفعها المستخدم. هذا يمنح الشركة فرصة فريدة للحصول على بيانات عالية الجودة، بما في ذلك صور شخصية وعائلية قد لا تكون متاحة للعموم.
ما هي المخاطر المحتملة؟
بحسب النشطاء، تشمل المخاطر ما يلي:
فقدان السيطرة على استخدام الصور بعد رفعها
اختراقات أمنية قد تؤدي إلى تسريب الصور
إساءة استخدام الذكاء الاصطناعي لإنشاء محتوى مزيف أو تشهيري
استخدام الصور في الإعلانات الموجهة أو حتى بيعها لطرف ثالث
تدريب النماذج الذكية على وجوه حقيقية دون إذن صريح
ورغم أن سياسة الخصوصية في OpenAI تسمح للمستخدمين باختيار عدم استخدام بياناتهم لتدريب النماذج، إلا أن هذه الإعدادات غالبًا ما تكون غير واضحة للمستخدم العادي.
ردود الفعل والدعوات للحذر:
حتى الآن، لم تصدر OpenAI بيانًا رسميًا يوضح موقفها من هذه المخاوف. ويحث خبراء الخصوصية المستخدمين على توخي الحذر وعدم التهاون في التعامل مع البيانات الشخصية، خصوصًا في ظل الاندفاع نحو استخدام أدوات الذكاء الاصطناعي للترفيه دون فهم واضح لتداعياتها.
ويقول النشطاء إن الصور التي يتم رفعها بهدف “المرح” يمكن أن تُستغل لاحقًا لأغراض تجارية أو تدريبية لا يعلم المستخدمون عنها شيئًا.
خلاصة:
رغم أن ميزة تحويل الصور إلى أسلوب استوديو غيبلي في ChatGPT تبدو إبداعية وجذابة، إلا أنها تفتح بابًا واسعًا للتساؤل حول خصوصية بيانات المستخدمين. ومع عدم وجود إطار قانوني واضح يُنظم هذه العمليات حتى الآن، يُنصح المستخدمون بالتفكير مليًا قبل مشاركة صورهم الشخصية مع أدوات الذكاء الاصطناعي.
Views: 40