التكنولوجيا بين الإنتاجية والمخاطر
قدمت النماذج اللغوية الكبيرة مثل ChatGPT آفاقًا جديدة للإنتاجية، لكنها جاءت أيضًا مع تحديات ومخاطر جديدة. مقال نُشر في مجلة Nature كشف عن خسارة بروفسور مارسيل بوخر لكثير من أعماله بسبب تغيير غير مقصود في الإعدادات.
اقرأ أيضًا: تحديثات ChatGPT Atlas: مجموعات علامات التبويب والتبديل التلقائي بين البحث
التفاصيل المثيرة للواقعة
أشار بوخر إلى أن المحادثات والمسودات الأكاديمية اختفت بعد محاولته إلغاء تفعيل خيار استخدام البيانات لتدريب النماذج. رغم محاولاته المتعددة لاستعادة البيانات، لم ينجح في ذلك، مما جعله يعتبر ChatGPT غير آمن للاستخدام الاحترافي الكامل.
خيار النسخ الاحتياطي
على الرغم من التحديات، يوفر ChatGPT خيارًا للنسخ الاحتياطي يمكن من خلاله تنزيل جميع المحادثات والبيانات. يمكن للمستخدم العثور على هذا الخيار تحت ‘ضوابط البيانات’ في الإعدادات، حيث يتم إرسال رابط تنزيلي عبر البريد الإلكتروني بعد وقت قصير.
تحديثات الأمان والتفاعل مع المستخدم
تشير التجارب الحديثة إلى أن الإعدادات الأمنية في ChatGPT قد تطورت بحيث تتجنب حالات الحذف غير المقصودة. يُتوقع أن يكون المستخدم الآن قادراً على فهم الخيارات المتاحة بشكل أفضل من خلال التنبيهات الواضحة.
استنتاجات ورؤى
تعلمنا من تجربة بوخر أن النسخ الاحتياطي يجب أن يكون جزءاً لا يتجزأ من العمل اليومي، خاصة عند التعامل مع الأدوات الذكية. وعلى المستخدمين الإلمام بجميع وظائف النظام لتجنب الخسائر غير المتوقعة.
المصدر: www.notebookcheck.net
مقالات ذات صلة
Views: 2

