back to top

مخاوف من انتهاك الخصوصية بسبب ميزة صور استوديو غيبلي في ChatGPT من OpenAI

مخاوف من انتهاك الخصوصية بسبب صور غيبلي في ChatGPT

أثار نشطاء حماية الخصوصية موجة من القلق حول ميزة تحويل الصور إلى أسلوب استوديو غيبلي التي أطلقتها شركة OpenAI مؤخرًا ضمن تطبيق ChatGPT، مشيرين إلى أنها قد تكون وسيلة غير مباشرة لجمع آلاف الصور الشخصية وتوظيفها في تدريب نماذج الذكاء الاصطناعي.

الميزة، التي لاقت رواجًا كبيرًا عالميًا منذ طرحها، تعتمد على قيام المستخدمين برفع صورهم لتحويلها إلى رسومات مستوحاة من أفلام استوديو غيبلي. لكن ما لا يدركه الكثيرون هو أن هذه الصور قد تُخزن وتُستخدم لاحقًا من قبل OpenAI لأغراض تتجاوز التحويل الفني.

هل تُستخدم صور المستخدمين لتدريب الذكاء الاصطناعي؟

وفقًا لتقرير من صحيفة Malayalam الهندية، فإن قيام المستخدمين برفع صورهم طوعًا يمنح OpenAI حرية قانونية أوسع في استخدامها مقارنة بالصور التي تُجمع من الإنترنت، والتي تُقيّدها اللائحة العامة لحماية البيانات (GDPR) في الاتحاد الأوروبي.

وبينما يُطلب من الشركات تبرير جمع البيانات بناءً على “مصلحة مشروعة”، فإن موافقة المستخدم المباشرة تفتح الباب أمام OpenAI لتخزين الصور وتحليلها واستخدامها في تدريب النماذج الذكية.

الفرق بين OpenAI وباقي الفلاتر التقليدية:

على عكس فلاتر الذكاء الاصطناعي الشائعة، التي تعدل الصور مؤقتًا دون تخزين الأصل، فإن OpenAI تحتفظ بالصور الأصلية التي يرفعها المستخدم. هذا يمنح الشركة فرصة فريدة للحصول على بيانات عالية الجودة، بما في ذلك صور شخصية وعائلية قد لا تكون متاحة للعموم.

ما هي المخاطر المحتملة؟

بحسب النشطاء، تشمل المخاطر ما يلي:

  • فقدان السيطرة على استخدام الصور بعد رفعها

  • اختراقات أمنية قد تؤدي إلى تسريب الصور

  • إساءة استخدام الذكاء الاصطناعي لإنشاء محتوى مزيف أو تشهيري

  • استخدام الصور في الإعلانات الموجهة أو حتى بيعها لطرف ثالث

  • تدريب النماذج الذكية على وجوه حقيقية دون إذن صريح

ورغم أن سياسة الخصوصية في OpenAI تسمح للمستخدمين باختيار عدم استخدام بياناتهم لتدريب النماذج، إلا أن هذه الإعدادات غالبًا ما تكون غير واضحة للمستخدم العادي.

ردود الفعل والدعوات للحذر:

حتى الآن، لم تصدر OpenAI بيانًا رسميًا يوضح موقفها من هذه المخاوف. ويحث خبراء الخصوصية المستخدمين على توخي الحذر وعدم التهاون في التعامل مع البيانات الشخصية، خصوصًا في ظل الاندفاع نحو استخدام أدوات الذكاء الاصطناعي للترفيه دون فهم واضح لتداعياتها.

ويقول النشطاء إن الصور التي يتم رفعها بهدف “المرح” يمكن أن تُستغل لاحقًا لأغراض تجارية أو تدريبية لا يعلم المستخدمون عنها شيئًا.

خلاصة:

رغم أن ميزة تحويل الصور إلى أسلوب استوديو غيبلي في ChatGPT تبدو إبداعية وجذابة، إلا أنها تفتح بابًا واسعًا للتساؤل حول خصوصية بيانات المستخدمين. ومع عدم وجود إطار قانوني واضح يُنظم هذه العمليات حتى الآن، يُنصح المستخدمون بالتفكير مليًا قبل مشاركة صورهم الشخصية مع أدوات الذكاء الاصطناعي.

Views: 42

اخر المستجدات

مقالات ذات صلة

ميزات إمكانية الوصول في تحديث iOS 19 – نقلة نوعية من Apple

في خطوة تعكس التزامها العميق بجعل التكنولوجيا في متناول الجميع، كشفت Apple رسميًا عن مجموعة جديدة من ميزات إمكانية الوصول التي ستصل في تحديثات iOS 19 وmacOS 16 وwatchOS 12 وvisionOS. وتأتي هذه الخطوة تزامنًا مع مرور 40 عامًا على التزام Apple بتطوير تقنيات تدعم الأشخاص ذوي الإعاقة، وهو توجه بدأته الشركة منذ عام 1985.

Apple Intelligence: هل أنهت آبل مشروع Apple GPT؟ القصة الكاملة وراء الذكاء الاصطناعي الجديد من آبل

Apple Intelligence ليست مجرد ترقية… إنها الطريقة الجديدة للتفاعل مع iPhone وMac بذكاء غير مسبوق! اكتشف كيف بدأت من Apple GPT وما الذي ينتظرك في iOS 18.

البحث بالذكاء الاصطناعي: كيف غيّر محركات البحث التقليدية؟

هل تعلم أن أدوات مثل ChatGPT وPerplexity بدأت تحل محل Google في البحث؟ الذكاء الاصطناعي أصبح يُقدّم إجابات مباشرة بدل روابط، ويُغيّر قواعد SEO بالكامل!

كل المنتظر في مؤتمر Microsoft Build 2025 – الذكاء الاصطناعي، GPT-5، وأجهزة Copilot+

كل الأنظار تتجه إلى مؤتمر Microsoft Build 2025، حيث تكشف مايكروسوفت عن مستقبل الذكاء الاصطناعي: من أدوات Copilot الذكية، إلى GPT-5 وأجهزة Surface المتقدمة. تعرّف على كل ما هو منتظر من الحدث الأهم لهذا العام