فاتت OpenAI مجال الأمن النووي من خلال شراكة مع الولايات المتحدة
تتعاون شركة الذكاء الاصطناعي OpenAI مع المختبرات الوطنية الأمريكية لتعزيز أمان الأسلحة النووية، مما يثير كل من الآمال والقلق بشأن موثوقية هذه التكنولوجيا.
تعاونت شركة OpenAI، الرائدة في مجال الذكاء الاصطناعي، مع مختبرات وزارة الطاقة الأمريكية الوطنية لتعزيز أمن الأسلحة النووية في الولايات المتحدة.
تعتبر هذه الخطوة علامة بارزة في التعاون المتزايد بين الشركة والحكومة الأمريكية، وتأتي مع مشاعر من التفاؤل والقلق.
سيسمح هذا الاتفاق لما يصل إلى 15,000 عالم يعملون في المختبرات الوطنية بالوصول إلى نماذج الذكاء الاصطناعي المتقدمة من OpenAI، وخاصة تلك الموجودة في عائلة o1، التي تم تصميمها لتحليل البيانات العميقة والاستنتاج المتقدم.
ستتعاون OpenAI أيضًا مع مستثمرها الرئيسي، شركة Microsoft، لنشر هذه النماذج على حاسوب Venado العملاق الموجود في مختبر لوس ألاموس الوطني.
وفقًا لـ OpenAI، من المتوقع أن تساعد هذه التكنولوجيا في تقليل مخاطر الحروب النووية وتحسين أمان المواد الخطرة.
ومع ذلك، أعرب خبراء في هذا المجال عن تحفظاتهم، مشيرين إلى المعروف من نقاط ضعف نماذج OpenAI فيما يتعلق بتسريبات المعلومات والأخطاء الواقعية.
بينما وعدت الشركة بأنظمة أمان معززة، إلا أن خطر كشف البيانات الحساسة للغاية لا يزال يمثل مصدر قلق.
تأتي هذا التطور بعد فترة قصيرة من إطلاق ChatGPT Gov، وهي منصة تم تطويرها بواسطة OpenAI خصيصًا للحكومة الأمريكية، تمكن من إدخال البيانات الحساسة بشكل آمن إلى نماذج الذكاء الاصطناعي الخاصة بالشركة.
تشارك OpenAI أيضًا في مشروع "Stargate"، وهو مبادرة قادتها إدارة ترامب، تهدف إلى ترسيخ قيادة الولايات المتحدة العالمية في مجال الذكاء الاصطناعي باستثمار مخطط قدره 500 مليار دولار.
وقد وضعت هذه التعاونات OpenAI في نقطة تقاطع حاسمة بين واشنطن ووادي السيليكون، لكنها أثارت أيضًا مخاوف بشأن تأثير شركة خاصة على سياسة التكنولوجيا الأمريكية.
قام سام ألتمان، الرئيس التنفيذي لشركة OpenAI، بتغيير موقفه تجاه الرئيس السابق ترامب، الذي كان قد انتقده سابقًا، حيث ساهم الآن بمليون دولار في صندوق تنصيب الرئيس الجديد.
يسلط هذا التحول في الموقف الضوء على الروابط المتزايدة بين شركة الذكاء الاصطناعي والقيادة السياسية الأمريكية.
في غضون ذلك، تشتد المنافسة العالمية في قطاع الذكاء الاصطناعي، خصوصًا مع ظهور DeepSeek، وهي شركة صينية كشفت عن نماذج ذكاء اصطناعي قوية هزت السوق.
اعترف ألتمان بالمنافسة المتزايدة ولكنه أكد أن نماذج OpenAI تظل متفوقة.
ردًا على نماذج DeepSeek، شنت OpenAI هجومًا مضادًا قويًا، متهمة الشركة الصينية باستخدام بيانات OpenAI المحمية لتدريب نموذج R1.
تدعي OpenAI أنها وجدت أدلة على أن DeepSeek استخدمت نماذجها بدون إذن، مما يثير القلق بشأن احتمال انتهاك الملكية الفكرية.
على الرغم من الحماس المحيط بتطبيق الذكاء الاصطناعي المتقدم في المجالات الحساسة مثل الأمن القومي، يشعر البعض بالقلق بشأن السيناريوهات الديستوبية التي تصورتها الأفلام العلمية الخيالية.
مع تزايد الاعتماد على الأنظمة الذكية في اتخاذ قرارات حاسمة، بما في ذلك تلك المتعلقة بالأسلحة النووية، يبقى السؤال: هل يجب أن يكون للذكاء الاصطناعي تأثير على أقوى وأخطر تقنيات الإنسانية؟
في الوقت الحالي، يبدو أن كل من واشنطن وOpenAI على استعداد لتحمل ذلك الخطر.
Translation:
Translated by AI
Newsletter
Related Articles