back to top

مخاوف من انتهاك الخصوصية بسبب ميزة صور استوديو غيبلي في ChatGPT من OpenAI

مخاوف من انتهاك الخصوصية بسبب صور غيبلي في ChatGPT

أثار نشطاء حماية الخصوصية موجة من القلق حول ميزة تحويل الصور إلى أسلوب استوديو غيبلي التي أطلقتها شركة OpenAI مؤخرًا ضمن تطبيق ChatGPT، مشيرين إلى أنها قد تكون وسيلة غير مباشرة لجمع آلاف الصور الشخصية وتوظيفها في تدريب نماذج الذكاء الاصطناعي.

الميزة، التي لاقت رواجًا كبيرًا عالميًا منذ طرحها، تعتمد على قيام المستخدمين برفع صورهم لتحويلها إلى رسومات مستوحاة من أفلام استوديو غيبلي. لكن ما لا يدركه الكثيرون هو أن هذه الصور قد تُخزن وتُستخدم لاحقًا من قبل OpenAI لأغراض تتجاوز التحويل الفني.

هل تُستخدم صور المستخدمين لتدريب الذكاء الاصطناعي؟

وفقًا لتقرير من صحيفة Malayalam الهندية، فإن قيام المستخدمين برفع صورهم طوعًا يمنح OpenAI حرية قانونية أوسع في استخدامها مقارنة بالصور التي تُجمع من الإنترنت، والتي تُقيّدها اللائحة العامة لحماية البيانات (GDPR) في الاتحاد الأوروبي.

وبينما يُطلب من الشركات تبرير جمع البيانات بناءً على “مصلحة مشروعة”، فإن موافقة المستخدم المباشرة تفتح الباب أمام OpenAI لتخزين الصور وتحليلها واستخدامها في تدريب النماذج الذكية.

الفرق بين OpenAI وباقي الفلاتر التقليدية:

على عكس فلاتر الذكاء الاصطناعي الشائعة، التي تعدل الصور مؤقتًا دون تخزين الأصل، فإن OpenAI تحتفظ بالصور الأصلية التي يرفعها المستخدم. هذا يمنح الشركة فرصة فريدة للحصول على بيانات عالية الجودة، بما في ذلك صور شخصية وعائلية قد لا تكون متاحة للعموم.

ما هي المخاطر المحتملة؟

بحسب النشطاء، تشمل المخاطر ما يلي:

  • فقدان السيطرة على استخدام الصور بعد رفعها

  • اختراقات أمنية قد تؤدي إلى تسريب الصور

  • إساءة استخدام الذكاء الاصطناعي لإنشاء محتوى مزيف أو تشهيري

  • استخدام الصور في الإعلانات الموجهة أو حتى بيعها لطرف ثالث

  • تدريب النماذج الذكية على وجوه حقيقية دون إذن صريح

ورغم أن سياسة الخصوصية في OpenAI تسمح للمستخدمين باختيار عدم استخدام بياناتهم لتدريب النماذج، إلا أن هذه الإعدادات غالبًا ما تكون غير واضحة للمستخدم العادي.

ردود الفعل والدعوات للحذر:

حتى الآن، لم تصدر OpenAI بيانًا رسميًا يوضح موقفها من هذه المخاوف. ويحث خبراء الخصوصية المستخدمين على توخي الحذر وعدم التهاون في التعامل مع البيانات الشخصية، خصوصًا في ظل الاندفاع نحو استخدام أدوات الذكاء الاصطناعي للترفيه دون فهم واضح لتداعياتها.

ويقول النشطاء إن الصور التي يتم رفعها بهدف “المرح” يمكن أن تُستغل لاحقًا لأغراض تجارية أو تدريبية لا يعلم المستخدمون عنها شيئًا.

خلاصة:

رغم أن ميزة تحويل الصور إلى أسلوب استوديو غيبلي في ChatGPT تبدو إبداعية وجذابة، إلا أنها تفتح بابًا واسعًا للتساؤل حول خصوصية بيانات المستخدمين. ومع عدم وجود إطار قانوني واضح يُنظم هذه العمليات حتى الآن، يُنصح المستخدمون بالتفكير مليًا قبل مشاركة صورهم الشخصية مع أدوات الذكاء الاصطناعي.

Views: 49

اخر المستجدات

مقالات ذات صلة

أقوى محركات البحث في الدارك ويب 2025: كيف تدخل هذا العالم بأمان؟

بينما يغرق معظم المستخدمين في صفحات الإنترنت السطحية التي نستخدمها يوميًا، هناك طبقات أعمق من الشبكة تُعرف باسم "الدارك ويب" و"الديب ويب"، تخفي محتوى...

متصفح Psylo الجديد هل فعلاً هو الأكثر أمانًا على iPhone؟

في عالم أصبح فيه التتبع الرقمي جزءًا من كل نقرة، تظهر الحاجة الماسة إلى متصفحات تقدم خصوصية حقيقية، وليس مجرد شعارات. وهنا يأتي متصفح...

أهم الهواتف القادمة في يوليو 2025: Nothing وGalaxy Z Fold 7 وأكثر

شهر يوليو يحمل لعشاق الهواتف الذكية مجموعة من الإطلاقات المهمة من شركات كبرى مثل Samsung وNothing وOppo وOnePlus. تنوّعت الأجهزة ما بين هواتف قابلة...

هاتف ريد ماجيك 2025: مواصفات مذهلة وسعر مفاجئ Red Magic 10S Pro

في عام 2025، تواصل شركة Nubia تعزيز موقعها في سوق هواتف الألعاب عبر إطلاق الهاتف الأحدث في سلسلة ريد ماجيك، وهو Red Magic 10S...
WordPress Cookie Plugin by Real Cookie Banner