كيف كسرت DeepSeek قيود 'التوسع' وأعادت تشكيل مستقبل الذكاء الاصطناعي؟

كيف كسرت DeepSeek قيود 'التوسع' وأعادت تشكيل مستقبل الذكاء الاصطناعي؟

في نهاية عام 2023، وبينما كان سام ألتمان، رئيس شركة OpenAI، يجيب على تساؤلات صحفي هندي حول إمكانية بناء الهند لنموذج ذكاء اصطناعي منافس لـ ChatGPT بميزانية محدودة، كانت ثقته تصل إلى حد الغرور:

“لا أمل لهذه المحاولات.”

استندت إجابته إلى قوانين التوسع (Scaling Laws)، التي تربط حجم النماذج العملاقة (Large Language Models) بكمية البيانات وقدرة البنية التحتية من وحدات معالجة الرسوميات (GPUs).

فكيف إذن تحدت الشركة الصينية DeepSeek هذه القوانين، ونجحت في بناء نموذج يفوق حجمه 670 مليار متغير بميزانية أقل من 5 ملايين دولار؟


العبقرية التقنية: عندما يصبح “المستحيل” ممكناً

لم تكن الإجابة عن تساؤل “كيف؟” سهلة، لكن الورقة البحثية التي نشرتها DeepSeek كشفت عن تحول جذري في فلسفة بناء النماذج العملاقة.

بدلاً من الاعتماد على النماذج الكثيفة (Dense Models)، التي تتطلب قوة حوسبة هائلة، استخدم الفريق تقنية Mixture of Experts - MoE (خليط الخبراء)، والتي تعتمد على تفعيل جزء صغير من الشبكة العصبية في كل مهمة.

هذه التقنية قلصت استهلاك الـ GPUs إلى ثُمن الكمية التقليدية، مع الحفاظ على الأداء.

ولم يتوقف الإبداع عند هذا الحد. فبتقنية ربط الكلستر (Cluster Linking)، تم تحسين كفاءة توزيع المهام بين المعالجات، مما سمح بتدريب النموذج على 2,048 معالجاً H800 فقط، خلال شهرين متواصلين دون أي أعطال فنية.

والأهم، أن النموذج رغم ضخامته، كان يُفعِّل 37 مليار متغير فقط في كل عملية استنتاج، مما خفض تكاليف التشغيل.

أما تقنية توسيع السياق (Context Extension)، فتم تطويرها في 3 أيام فقط، بينما استغرق بناء نموذج الاستنتاج DeepSeek-R1 عبر التقطير (Distilling) وقتاً أقل بفضل الاستفادة من البيانات المُحسَّنة.


الصدمة العالمية: لماذا ارتبكت أسواق أشباه الموصلات؟

كانت نتيجة هذا الإنجاز مفاجئة للجميع: كسر Scaling Laws، الذي ظلّ لسنوات بمثابة “كتاب مقدس” في صناعة الذكاء الاصطناعي.

فبدلاً من الحاجة إلى الكلسترات العملاقة (Mega Clusters)، أصبحت النماذج الكبيرة قابلة للبناء ببنى تحتية متواضعة نسبياً.

هذا التغيير قلل الطلب العالمي على الـ GPUs المتقدمة، مما أدى إلى تراجع أسهم شركات مثل NVIDIA وAMD بنسب ملحوظة، وفتح نقاشاً حول إعادة تقييم استثمارات أشباه الموصلات.


الدرس العربي: كيف نصنع “معجزة” محلية؟

السؤال الأهم: ما الذي يعنيه هذا التحول للعالم العربي؟

الإجابة: تكمن في فرصة تاريخية لبناء نماذج لغوية عملاقة (LLMs) مخصصة للغة العربية، تُدار محلياً، وتلبي الاحتياجات الثقافية والأمنية.

فكما تفوقت DeepSeek في اللغة الصينية، يمكن للنماذج العربية أن تتفوق في فهم اللهجات والتعابير المحلية، خاصة مع توفر تقنيات مفتوحة المصدر (Open-Source) ومجتمعات علمية عربية ناشئة.

المفتاح هنا هو:

  • الاستفادة من المعالجات المتوفرة
  • تطبيق استراتيجيات مثل MoE والتدريب الموزع (Distributed Training)
  • تعزيز التعاون بين الجامعات ومراكز الأبحاث العربية

بل إن التحدي الأكبر قد يكون ثقافياً:

تحفيز الاستثمار في البنية التحتية الرقمية، ودعم العلماء العرب العاملين في مجال التعلم العميق، بدلاً من الاعتماد على حلول جاهزة من الشركات الأمريكية.

قصة DeepSeek تُثبت أن الابتكار الهندسي قادر على تعويض نقص الموارد، وأن الذكاء الاصطناعي لم يعد حكرًا على الشركات العملاقة.

إنها لحظة العرب لكتابة فصلهم في هذا التاريخ. 🚀