الدارك ويب لم يعد مجرد مساحة خفية للمعاملات المشبوهة، بل أصبح ساحة متطورة تُدار فيها عمليات احتيال متقدمة بأسلحة من نوع جديد: الذكاء الاصطناعي.
الذكاء الاصطناعي في الدارك ويب – واقع خطير يتصاعد
منذ عام 2023 بدأت ملامح جديدة تظهر على سطح النشاطات غير القانونية على الإنترنت، لكن مع بداية 2025، أصبح الذكاء الاصطناعي في الدارك ويب هو المحرك الأساسي لمعظم الهجمات الرقمية المتقدمة. تقنيات كانت في السابق حكرًا على المؤسسات الكبرى، باتت الآن تُباع في أسواق مظلمة على شكل خدمات آلية لمن يدفع أكثر.
في هذا السياق، لم يعد اختراق البريد الإلكتروني أو محفظة العملات الرقمية يتطلب معرفة تقنية عميقة، بل مجرد تحميل أداة ذكاء اصطناعي من منتدى مظلم، بضغطة زر واحدة.
الذكاء الاصطناعي كخدمة – (AI-as-a-Service) لمن يريد الإجرام
بدأنا نلاحظ ظهور منصات تقدم الذكاء الاصطناعي في الدارك ويب كخدمة جاهزة، تتيح للمستخدم تنفيذ عمليات تصيد احتيالي، أو تحليل بيانات مسروقة، أو حتى كتابة برمجيات خبيثة.
واحدة من أبرز هذه الأدوات هي “Xanthorox AI”، التي تم رصد بيعها في أحد المنتديات المظلمة. هذه المنصة قادرة على تنفيذ اختراقات متقدمة، وتحليل ثغرات مواقع إلكترونية في دقائق.
ويوازي ذلك أدوات مثل WormGPT وFraudGPT، التي استُخدمت في آلاف حملات التصيّد خلال العام الماضي. هذه النماذج تولّد نصوصًا مشابهة للبشر بنسبة خطيرة، لدرجة أن بعض الشركات لم تميز الرسائل المزيفة من الحقيقية.
التزييف العميق: الوجه المزيف للواقع
من أبرز صور الذكاء الاصطناعي في الدارك ويب هو استخدام تقنيات التزييف العميق (Deepfakes). هذه التقنية تطورت لدرجة استخدامها في مكالمات فيديو مزيفة لانتحال شخصيات مسؤولة في شركات مالية.
في إحدى القضايا التي هزت هونغ كونغ، تم تنفيذ عملية احتيال إلكتروني تجاوزت قيمتها 25 مليون دولار، بعد أن تلقّى موظف مكالمة فيديو “مقنعة” من المدير المالي – الذي كان مجرد توليفة ذكية بين صوت مزيف وصورة مزيفة تم إنشاؤهما بالذكاء الاصطناعي.
هذا المثال يُظهر بوضوح أن الذكاء الاصطناعي في الدارك ويب لم يعد يُستخدم فقط في الاختراق، بل أيضًا في السيطرة النفسية على الضحايا.
هجمات “حقن التعليمات” – الخطر الجديد على الذكاء الاصطناعي
من الأخطار الناشئة المرتبطة باستخدام الذكاء الاصطناعي في الدارك ويب، هي ما يُعرف بهجمات “Prompt Injection“، وهي طريقة لاستغلال نماذج الذكاء الاصطناعي من خلال تمرير تعليمات خبيثة تجعل النموذج يتصرف بطريقة غير متوقعة أو مضرة.
أبرز ما يجعل هذه الهجمات مرعبة هو سهولتها، فهي لا تعتمد على كسر جدران حماية تقليدية، بل على خداع النموذج اللغوي نفسه. وقد تم تصنيف هذه الهجمات من قِبل OWASP ضمن أخطر التهديدات لعام 2025، الأمر الذي يدق ناقوس الخطر حول استخدام الذكاء الاصطناعي بشكل آمن حتى داخل المؤسسات.
حتى المطورين المتمرسين قد يجدون صعوبة في كشف سلوك غير متوقع ناتج عن تلاعب بنموذج لغوي معقد، مما يزيد من فاعلية الذكاء الاصطناعي في الدارك ويب في تنفيذ جرائم رقمية عالية الدقة.
التحديات أمام الجهات الأمنية والمؤسسات
على الرغم من أن الكثير من الحكومات بدأت تعتمد على أدوات الذكاء الاصطناعي لكشف الجرائم الرقمية، إلا أن المجرمين يسبقونها بخطوة باستخدام نفس التقنيات لأغراض مضادة. في الحقيقة، تشير تقارير أمنية إلى أن 45% من خبراء الأمن السيبراني يشعرون بعدم الجاهزية الكاملة للتعامل مع الهجمات المدعومة بالذكاء الاصطناعي.
تطوّر الذكاء الاصطناعي في الدارك ويب بشكل أسرع من تطور أدوات الحماية، ما يُجبر المؤسسات على التفكير في حلول دفاعية مبتكرة، مثل النماذج المضادة (Adversarial AI) والتحليل السلوكي للبيانات بدلًا من الاعتماد على القواعد التقليدية.
كيف نحمي أنفسنا في عصر الجريمة الذكية؟
في ظل هذا الواقع المتغير، من الضروري أن تتحول استراتيجيات الأمن من رد الفعل إلى التنبؤ. وهنا بعض التوصيات العملية:
الاعتماد على نماذج ذكاء اصطناعي مدربة على اكتشاف التلاعبات، خصوصًا تلك المخصصة لاكتشاف التزييف العميق.
تدريب الموظفين على فهم أساليب الخداع الحديثة، وليس فقط الإجراءات التقنية.
مراقبة نشاط الدارك ويب من خلال أدوات متخصصة لرصد الأدوات والنماذج الجديدة المعروضة للبيع.
التعاون بين الحكومات والقطاع الخاص لبناء قواعد بيانات موحدة للتهديدات الحديثة.
خاتمة
من الواضح أن الذكاء الاصطناعي في الدارك ويب لم يعد تهديدًا مستقبليًا بل هو واقع يتطور يومًا بعد يوم. وبينما يتسابق المجرمون والمخترقون في استخدام أدوات الذكاء الاصطناعي لأغراض خبيثة، يتوجب على المؤسسات والحكومات أن تتبنى استراتيجيات حماية أكثر ذكاءً واستباقًا.
في نهاية المطاف، الذكاء الاصطناعي ليس خطرًا بحد ذاته، بل هو أداة – من يستخدمها ولماذا، هو ما يحدد إن كانت ستبني عالمًا أكثر أمانًا، أو تدفعه نحو فوضى رقمية.
Views: 6