سباق الذكاء الخارق بين OpenAI وDeepCent: الذكاء العام الاصطناعي ووكلاء الذكاء الاصطناعي كسباق تسلح للأمن الوطني
سيناريو AI2027 يعيد تصور أنظمة الذكاء الاصطناعي المتقدمة ليس كأدوات إنتاجية، بل كأسلحة جيوسياسية تحمل مخاطر وجودية.
القضية الأكثر إلحاحًا التي يثيرها سيناريو AI2027 ليست ما إذا كانت الإنسانية ستتم إبادتها في عام 2035. إنها ما إذا كانت السباق لبناء الذكاء الاصطناعي العام ووكالات الذكاء الاصطناعي الفائقة الذكاء يعمل بالفعل كسَبَق فعلي في تسليح الأمن القومي بين الشركات والدول.
عندما يتم التعامل مع أنظمة الذكاء الاصطناعي المتقدمة كأصول استراتيجية بدلًا من كمنتجات استهلاكية، تتغير الحوافز.
تغلب السرعة على الحذر.
تتأخر الحوكمة عن القدرة.
ويصبح تركيز القوة هيكليًا بدلاً من كونه عرضيًا.
يسرد سرد AI2027 شركة خيالية، OpenBrain، تصل إلى الذكاء الاصطناعي العام في عام 2027 وتقوم بسرعة بنشر نسخ متوازية ضخمة من وكالة ذكاء اصطناعي قادرة على التفوق على الخبراء البشريين النخبة.
ثم يعرض تسلسلًا: تحسين ذاتي متكرر، ذكاء فائق، ذعر جيوسياسي، عسكرية، وفرة اقتصادية مؤقتة، وفي النهاية فقدان السيطرة البشرية.
ينتقد النقاد هذا الجدول الزمني باعتباره مضغوطًا بشكل غير معقول وأن العقبات التقنية أمام التفكير العام الموثوق لا تزال كبيرة.
الجدول الزمني محل نزاع.
أما المنطق التنافسي فلا.
المؤكد مقابل غير الواضح: ما يمكننا تأكيده هو أن أنظمة الذكاء الاصطناعي المتقدمة تتحسن بسرعة في التفكير، والترميز، واستخدام الأدوات، وأن الشركات الكبرى والحكومات تعتبر قيادة الذكاء الاصطناعي حاسمة استراتيجيًا.
يمكننا تأكيد أن الذكاء الاصطناعي يندمج بشكل متزايد في تخطيط الأمن القومي، وضوابط التصدير، والسياسة الصناعية.
ما يبقى غير واضح هو ما إذا كان الذكاء الاصطناعي العام قابل للتحقيق خلال السنوات القليلة المقبلة، وما إذا كان التحسين الذاتي المتكرر سيحدث بالسرعة الموصوفة.
كما أنه غير واضح ما إذا كانت تقنيات المحاذاة يمكن أن تتوسع لتناسب أنظمة ذات تشكيل أهداف مستقل.
الآلية: يتم تدريب أنظمة الذكاء الاصطناعي المتقدمة على مجموعات بيانات ضخمة باستخدام بنية تحتية حاسوبية كبيرة النطاق.
كلما تحسنت النماذج في التفكير واستخدام الأدوات، يمكنها المساعدة في تصميم برمجيات أفضل، وتهيئة أنابيب البيانات، وتسريع البحث.
هذا يقصر دورات التطوير.
إذا كانت هناك نظام ذكاء اصطناعي يمكن أن يساهم بشكل ذي مغزى في تصميم خلفائه، فإن سرعة التكرار تزداد أكثر.
تظهر المخاطر عندما تتوسع الاستقلالية أسرع من الإشراف البشري.
تتقدم أدوات المراقبة، والقابلية للتفسير، والمحاذاة بشكل تدريجي، في حين أن مكاسب القدرة يمكن أن تكون خطوة بخطوة.
تلك عدم التوازن هي جوهر عدم الاستقرار.
الاقتصادات الفردية: تطوير الذكاء الاصطناعي لديه مركزين رئيسيين في التكلفة – التدريب والاستدلال.
يتطلب تدريب النماذج الكبيرة إنفاقًا رأسماليًا ضخمًا في الشرائح ومراكز البيانات، وهي تكاليف تتناسب مع الطموح وليس المستخدمين.
تتوافق تكاليف الاستدلال مع الاستخدام؛ مع زيادة الاعتماد، يتطلب خدمة ملايين المستخدمين إنفاقًا مستمرًا على الحوسبة.
تتسع الهوامش إذا أصبحت النماذج أكثر كفاءة لكل استعلام وإذا كانت القدرات الملكية تتطلب أسعارًا متميزة.
تنهار الهوامش إذا أجبر التنافس على تشكيل منتج متجانس أو إذا زادت القيود التنظيمية من تكاليف الامتثال.
في بيئة سباق التسلح، قد تعطي الشركات الأولوية للقدرة على الربحية قصيرة الأجل، ما يعيد فعليًا استثمار الهوامش في التوسع.
نفوذ أصحاب المصلحة: تتحكم الشركات في أوزان النماذج، ومواهب البحث، وخطوط نشر.
تتحكم الحكومات في ضوابط التصدير، وسلاسل توريد الشرائح، وعقود الشراء.
تتحكم موفرو السحابة في الوصول إلى بنية تحتية حاسوبية عالية الأداء.
يعتمد المستخدمون على الذكاء الاصطناعي لتحقيق مكاسب في الإنتاجية، لكنهم يفتقرون إلى سلطة الحوكمة المباشرة.
إذا تم تأطير الذكاء الاصطناعي على أنه أساسي للمصلحة الوطنية، تكتسب الحكومات نفوذًا من خلال التنظيم والتمويل.
إذا أصبحت الشركات indispensable الدولة، تكتسب نفوذًا متبادلاً.
تتtightens تلك الاعتماد المتبادل مع زيادة القدرة.
الديناميات التنافسية: بمجرد أن يتم تصور قيادة الذكاء الاصطناعي على أنها تمنح هيمنة عسكرية أو اقتصادية، يصبح الاحتواء مكلفًا سياسيًا.
لا يرغب أي فاعل في أن يكون الثاني في سباق يُؤطَّر كوجودي.
تقلل هذه الديناميكية من التسامح مع التباطؤ، حتى لو زادت المخاوف المتعلقة بالسلامة.
تتزايد الضغوط إذا تم الاعتقاد بأن الدول المنافسة قريبة جدًا.
في مثل هذه البيئة، تصبح التنسيق الطوعي هشة وتصبح الاتهامات بالاحتواء أحادي الجانب سامة سياسيًا.
السيناريوهات: في حالة أساسية، تستمر قدرة الذكاء الاصطناعي في التقدم بسرعة ولكن تحت إشراف تنظيمي جزئي، مع فرض الدول متطلبات التقرير وقيود نشر محدودة بينما يظل التنافس شديدًا.
في حالة تنسيق متفائلة، توافق القوى الكبرى في الذكاء الاصطناعي على حوكمة حاسوبية قابلة للتنفيذ ومعايير سلامة مشتركة، مما يبطئ أكثر مسارات التطوير تقدمًا حتى تنضج أدوات المحاذاة.
في حالة سباق تسلح متشائمة، تسرع التوترات الجيوسياسية الاستثمار، ويتم نشر الأنظمة المتقدمة في السياقات الدفاعية، وتصبح السلامة خاضعة للأفضلية الاستراتيجية.
ما يجب مراقبته:
- متطلبات الترخيص الرسمية لتشغيل تدريب الذكاء الاصطناعي على نطاق واسع.
- توسيع ضوابط التصدير لتشمل الخدمات السحابية بجانب الشرائح.
- نشر وكلاء ذكاء اصطناعي ذاتي الحكم بشكل كبير في العمليات الحكومية.
- الاعتراف العلني من قبل الشركات الكبرى بحدود المحاذاة الداخلية.
- تسارع قابل للقياس في دورات تحسين الذات للنماذج.
- تحويل التمويل الحكومي نحو تكامل الدفاع البشري في الذكاء الاصطناعي.
- اتفاقيات دولية بشأن التحقق أو التفتيش في الذكاء الاصطناعي.
- حادثة كبيرة في الفضاء السيبراني أو العسكري مدفوعة بالذكاء الاصطناعي.
- اندماج قدرات الذكاء الاصطناعي المتقدمة في عدد أقل من الشركات.
- إشارات واضحة عن الإزاحة الاقتصادية مرتبطة مباشرة بأتمتة الذكاء الاصطناعي.
ورقة AI2027 هي سرد تخيلي.
ولكنها غيرت الإطار.
لم يعد النقاش يتعلق بروبوتات المحادثة الأذكى.
إنه يتعلق بتركز السلطة، وحوافز السباق، وما إذا كانت الإنسانية يمكن أن تنسق قبل أن يصبح التنافس الاستراتيجي عائقًا للتسارع غير القابل للإرجاع.
لن يعتمد الناتج على عام محدد.
بل سيعتمد على ما إذا كانت آليات الحوكمة يمكن أن تتطور بالسرعة نفسها التي تتطور بها الآلات التي تهدف إلى السيطرة عليها.
Translation:
Translated by AI
Newsletter
Related Articles